AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 22 페이지
- 3
Show HN: 에이전트가 관리하는 Karpathy 스타일 LLM 위키 (Markdown 및 Git)
WUPHF는 AI 에이전트들이 마치 실제 팀원처럼 협업하며 업무를 수행하는 'AI 에이전트 전용 협업 오피스'입니다. Git 기반의 Markdown 위키를 통해 에이전트 간 지식을 공유하며, PM, 개발자, 디자이너 등 각 역할에 특화된 에이전트들이 24시간 중단 없이 업무를 처리하고 결과물을 만들어냅니다.
Show HN: A Karpathy-style LLM wiki your agents maintain (Markdown and Git)↗github.com
- 4
캔버스 지문이 당신을 발각하는 방법 (그리고 무작위 노이즈가 왜 더 악화시키는가)
이 기사는 헤드리스 브라우저(Playwright, Puppeteer 등)가 캔버스 핑거프린팅(Canvas Fingerprinting) 기술에 의해 탐지되는 원인과 그 해결책을 다룹니다. 단순한 무작위 노이즈 추가는 오히려 브라우저의 일관성을 깨뜨려 탐지 위험을 높이므로, 세션별로 일관된 '결정론적 노이즈(Deterministic Noise)'를 적용하는 정교한 접근법이 필요함을 강조합니다.
How Your Canvas Fingerprint Gets You Caught (And Why Random Noise Makes It Worse)↗dev.to
- 5
Anthropic SDK는 안전해 보인다. 하지만 두 개의 추이적 의존성은 그렇지 않다.
Anthropic SDK 자체는 관리 상태가 양호해 보이지만, 그 하위 의존성(transitive dependencies)인 'json-schema-to-ts' 등은 단일 관리자에 의해 운영되는 매우 취약한 상태입니다. 공급망 공격은 직접적인 패키지가 아닌, 눈에 보이지 않는 깊은 단계의 의존성을 타겟으로 삼고 있어 이에 대한 정밀한 감사가 필요합니다.
The Anthropic SDK Looks Safe. Two of Its Transitive Dependencies Aren't.↗dev.to
- 6
소형 언어 모델에게 기억시키는 방법: Differentiable Neural Computers를 활용한 LLM 노트북 제공
소형 언어 모델(SLM)의 고질적인 문제인 지식 망각과 환각 현상을 해결하기 위해, Differentiable Neural Computer(DNC)를 활용하여 모델에 외부 메모리(노트북)를 제공하는 기술적 방법론을 설명합니다. 모델의 파라미터 크기에 의존하지 않고, 학습 가능한 외부 메모리 행렬을 통해 사실 관계를 저장하고 검색하는 구조를 제안합니다.
Teaching Small Language Models to Remember: Giving LLMs a Notebook with Differentiable Neural Computers↗dev.to
- 9
CoTracker3: 실제 비디오의 유사 라벨링을 통한 더 쉽고 정확한 포인트 추적
CoTracker3는 실제 비디오 데이터에 유사 라벨링(Pseudo-labeling) 기술을 적용하여, 수동 라벨링 없이도 정밀한 포인트 추적을 가능하게 하는 차세대 비디오 추적 모델입니다. 이를 통해 복잡한 움직임과 가려짐(Occlusion)이 발생하는 실제 환경에서도 높은 정확도와 확장성을 확보했습니다.
CoTracker3: Simpler and Better Point Tracking by Pseudo-Labelling Real Videos↗dev.to
- 11
TIPSv2: 향상된 패치-텍스트 정렬을 통한 비전-언어 사전 훈련 발전
TIPSv2는 패치-텍스트 정렬(Patch-Text Alignment)을 강화하여 비전-언어 사전 학습(VLP)의 성능을 혁신적으로 높인 차세대 모델입니다. 증류(Distillation) 과정에서 발견된 통찰을 바탕으로 iBOT++, Head-only EMA, 다중 입도 캡션 기술을 도입하여 제로샷 세그멘테이션 등 정밀한 시각적 작업에서 탁월한 성능을 입증했습니다.
TIPSv2: Advancing Vision-Language Pretraining with Enhanced Patch-Text Alignment↗gdm-tipsv2.github.io
- 13
OpenAI, API를 통해 GPT-5.5 및 GPT-5.5 Pro 출시
OpenAI가 100만 토큰 컨텍스트 윈도우와 'Computer Use' 기능을 탑재한 차세대 모델 GPT-5.5 및 GPT-5.5 Pro를 출시했습니다. 이번 업데이트는 단순한 텍스트 생성을 넘어, 도구 검색(Tool search), 웹 검색, 컴퓨터 제어 등 자율적 에이전트(Agentic AI)로서의 기능을 대폭 강화한 것이 핵심입니다.
OpenAI releases GPT-5.5 and GPT-5.5 Pro in the API↗developers.openai.com
- 20
LLM 추론이 AI 인프라를 망가뜨리는 이유 (그리고 해결 방법)
LLM의 추론(Reasoning) 기능 도입이 모델의 성능은 높였지만, 공급자별로 상이한 구현 방식 때문에 AI 인프라의 복잡성과 비용 불확실성을 급격히 증가시키고 있습니다. 이를 해결하기 위해서는 모델의 성능을 넘어, 추론 방식과 입출력을 표준화할 수 있는 통합 추상화 계층(Unified Abstraction Layer) 구축이 필수적입니다.
Why LLM Reasoning Is Breaking AI Infrastructure (And How to Fix It)↗dev.to















