AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 40 페이지
- 0
Karpathy의 LLM Wiki가 옳았다. 단지 로컬에서 실행하고 싶지 않았을 뿐이다.
단순히 문서를 검색하는 RAG(검색 증강 생성)를 넘어, LLM 에이전트가 스스로 지식을 업데이트하고 관리하는 'LLM Wiki' 패턴의 가치를 조명합니다. 또한, 로컬 환경의 한계(동기화 및 접근성 문제)를 극복하기 위해 MCP(Model Context Protocol)를 활용하여 모든 LLM 클라이언트가 공유할 수 있는 클라우드 기반 지식 저장소인 'Hjarni'의 등장을 설명합니다.
Karpathy's LLM Wiki is right. I just didn't want to run it locally.↗dev.to
- 1
Meta의 Superintelligence Lab, 첫 공개 모델 Muse Spark 공개
메타가 새로운 'Superintelligence Lab'의 첫 모델인 'Muse Spark'를 공개하며, 기존 Llama 중심의 오픈 소스 전략에서 벗어나 독자적인(Proprietary) 모델 개발로의 대전환을 선언했습니다. 이 모델은 멀티 에이전트 추론 기술인 'Contemplating' 모드와 메타의 방대한 소셜 미디어 데이터를 결합하여 개인화된 초지능을 구현하는 것을 목표로 합니다.
Meta's Superintelligence Lab unveils its first public model, Muse Spark↗arstechnica.com
- 5
LLM의 비정형 응답을 신뢰할 수 있는 JSON 데이터로 변환하기 위한 두 가지 핵심 전략인 OpenAI Structured Outputs와 Zod를 비교 분석합니다. 또한, Vercrypt AI SDK를 통해 모델별 최적의 검증 방식을 자동으로 적용하는 하이브리드 접근법을 제시합니다.
LLM의 비정형 응답을 신뢰할 수 있는 JSON 데이터로 변환하기 위한 두 가지 핵심 전략인 OpenAI Structured Outputs와 Zod를 비교 분석합니다. 또한, Vercrypt AI SDK를 통해 모델별 최적의 검증 방식을 자동으로 적용하는 하이브리드 접근법을 제시합니다.
OpenAI Structured Outputs vs Zod: which to use for LLM response validation in 2026↗dev.to
- 7
Show HN: Apple Silicon용 Gemma 4 Multimodal Fine-Tuner
Apple Silicon(Mac) 환경에서 Gemma 4 모델을 텍스트, 이미지, 오디오 등 멀티모달 데이터로 미세 조정(Fine-tuning)할 수 있는 전용 툴킷이 공개되었습니다. NVIDIA GPU 없이도 로컬 Mac에서 LoRA를 활용해 효율적인 학습이 가능하며, 클라우드(GCS/BiglarQuery) 데이터를 스트리밍하여 로컬 저장 공간의 한계를 극복할 수 있습니다.
Show HN: Gemma 4 Multimodal Fine-Tuner for Apple Silicon↗github.com
- 10
새로운 Anthropic 모델, 모든 주요 운영 체제와 웹 브라우저에서 보안 문제 발견
Anthropic이 주요 운영 체제와 웹 브라우저에서 수천 개의 고위험 보안 취약점을 자율적으로 찾아낸 새로운 AI 모델 'Claude Mythos Preview'를 공개했습니다. 이 모델은 'Project Glasswing'의 일환으로, 보안 공격 방어를 위해 선정된 글로벌 테크 기업 및 파트너사들에게만 제한적으로 제공됩니다.
A new Anthropic model found security problems ‘in every major operating system and web browser’↗theverge.com
- 12
VRAM이 새로운 RAM이다 — Consumer GPU에서 Large Language Models를 실행하기 위한 실전 가이드
로컬 환경에서 LLM을 실행할 때 발생하는 가장 큰 병목은 VRAM 용량이며, 이를 해결하기 위한 핵심 기술은 양자화(Quantization)입니다. 모델 가중치 외에도 KV 캐시와 시스템 오버헤드를 고려한 정밀한 VRAM 관리가 로컬 AI 운영의 성패를 결정합니다.
VRAM Is the New RAM — A Practical Guide to Running Large Language Models on Consumer GPUs↗dev.to
- 16
Transformers 이해 2부: Sine 및 Cosine을 이용한 Positional Encoding
이 기사는 트랜스포머(Transformers) 모델이 단어 임베딩에 위치 정보를 추가하는 방법을 설명합니다. 각 임베딩 차원이 서로 다른 사인 및 코사인 파동을 통해 위치 값을 생성하며, 이 파동들에서 얻은 값들을 조합하여 단어의 위치 인코딩 벡터를 만듭니다. 이는 트랜스포머가 순차적인 정보를 이해하는 데 필수적인 핵심 메커니즘입니다.
Understanding Transformers Part 2: Positional Encoding with Sine and Cosine↗dev.to
- 17
AI에게 스스로 답을 갖고 있다는 것을 모르는 질문을 할 수 있다면 어떨까?
이 글은 대규모 언어 모델(LLM)이 우리가 아는 질문을 넘어 잠재된 지식을 갖고 있으며, 이를 발견하기 위해 '옆으로 질문하기(sideways questioning)'라는 새로운 접근법을 제시합니다. 특정 도메인 밖에서 질문을 던져 숨겨진 구조적 패턴과 근본적인 통찰을 이끌어내고, 이는 AI와 인간의 협업을 통해 가장 효과적으로 발현될 수 있음을 강조합니다.
What If You Could Ask an AI the Question It Doesn't Know It Knows the Answer To?↗dev.to
- 18
새로운 ChatGPT 앱 인테그레이션(DoorDash, Spotify, Uber 등 포함) 사용법
OpenAI의 ChatGPT가 Spotify, DoorDash, Booking.com 등 다양한 앱과 직접 연동 기능을 선보였습니다. 사용자들은 챗GPT를 통해 맞춤형 플레이리스트를 생성하거나 호텔을 예약하고 식료품을 주문하는 등 앱 내 기능을 음성 또는 텍스트 명령으로 실행할 수 있게 되었습니다. 이는 AI가 단순 정보 제공을 넘어 실제 앱 서비스 실행의 허브로 진화하고 있음을 보여주며, 계정 연결 시 데이터 공유 및 개인정보 보호에 대한 주의가 요구됩니다.
How to use the new ChatGPT app integrations, including DoorDash, Spotify, Uber, and others↗techcrunch.com
- 19
HN에 소개합니다: M3 Pro에서 Gemma E2B를 사용하여 오디오/비디오를 입력받아 음성으로 출력하는 실시간 AI
Parlor는 M3 Pro 칩셋에서 구동되는 온디바이스 실시간 멀티모달 AI로, 사용자의 음성 및 시각 입력을 받아 자연스러운 대화가 가능하게 합니다. Gemma 4 E2B와 Kokoro TTS를 활용해 서버 비용 없이 로컬에서 완벽하게 작동하며, 특히 언어 학습자를 위한 잠재력이 큽니다. 이는 AI 모델의 경량화와 온디바이스 AI 시대의 도래를 알리는 중요한 진전입니다.
Show HN: Real-time AI (audio/video in, voice out) on an M3 Pro with Gemma E2B↗github.com
- 20
쇼 HN: 언어 모델 작동 방식을 풀이하기 위해 작은 LLM을 만들었다
GuppyLM은 9백만 개의 파라미터를 가진 소형 LLM으로, 거대한 컴퓨팅 자원이나 전문가 없이도 누구나 Colab 노트북을 이용해 5분 만에 언어 모델을 처음부터 구축할 수 있음을 보여주기 위해 개발되었습니다. 이 프로젝트는 LLM 개발 과정을 투명하게 공개하여, 복잡하고 접근하기 어렵다는 인식을 불식시키고 특정 목적에 맞는 효율적인 AI 모델 구축 가능성을 제시합니다.
Show HN: I built a tiny LLM to demystify how language models work↗github.com
- 21
TypeScript로 Semantic Search: Vector Search를 위한 embed() 및 embedMany() 활용
이 기사는 정보 과부하 시대에 키워드 검색의 한계를 넘어 의미를 이해하는 시맨틱 검색의 중요성을 강조합니다. TypeScript용 통합 AI SDK인 NeuroLink를 활용하여 텍스트 임베딩을 생성하고 벡터 검색을 구현하는 방법을 안내하며, `embed()` 및 `embedMany()` 메서드를 통한 효율적인 임베딩 생성 과정을 설명합니다. 이를 통해 개발자들이 시맨틱 검색 기능을 쉽게 애플리케이션에 통합할 수 있음을 보여줍니다.
Semantic Search with TypeScript: Using embed() and embedMany() for Vector Search↗dev.to











