AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 3 페이지
- 0
DeepSeek V4 + Claude Code: 중국 최고 수준의 오픈 소스 모델로 "수술적" 개발 워크플로우 구축
DeepSeek V4의 강력한 추론 능력과 Claude Code의 CLI 에이전트 기능을 결합하여, 저비용·고효율의 '수술적' 개발 워크플로우를 구축하는 방법을 제시합니다. 이는 단순한 프롬프트 입력을 넘어, AI가 직접 코드를 수정하고 테스트하며 Git을 관리하는 자동화된 개발 루프를 통해 1인 기업의 생산성을 극대화하는 데 초점을 맞춥니다.
DeepSeek V4 + Claude Code: Building a "Surgical" Development Workflow with China's Strongest Open-Source Model↗dev.to
- 3
Thinking Machines, AI가 말하는 동안 실제로 경청하는 AI 구축을 목표로
전 OpenAI CTO 미라 무라티가 설립한 'Thinking Machines Lab'이 사용자의 말을 끊거나 동시에 들을 수 있는 '인터랙션 모델(interaction models)'을 발표했습니다. 이 모델은 'Full Duplex' 기술을 통해 0.40초라는 인간의 대화 속도에 가까운 초저지연 응답을 구현하여, 기존의 텍스트 기반 주고받기 방식이 아닌 실제 전화 통화와 같은 실시간 상호작용을 목표로 합니다.
Thinking Machines wants to build an AI that actually listens while it talks↗techcrunch.com
- 7
단일 AMD MI300X에서 구축하는 오픈 소스 텍스트-30초 영화 리얼 파이프라인
단일 AMD MI300X GPU를 활용하여 텍스트 한 문장으로부터 30초 분량의 완성도 높은 영화급 영상을 생성하는 오픈 소스 파이프라인 기술입니다. 비전 크리틱(Vision Critic)이라는 자동 검수 루프를 도입하여 생성된 영상의 오류를 스스로 찾아내고 재렌더링함으로써, 단일 하드웨어 내에서 고품질의 멀티 모델 워크플로우를 구현했습니다.
Building an Open-Source Text-to-30s-Cinematic-Reel Pipeline on a Single AMD MI300X↗dev.to
- 10
AI 빌더 플랫폼이 신뢰할 수 있는 인프라를 갖춰야 하는 이유
AI 빌더(Lovable, Bolt 등)를 통한 빠른 프로토타이핑이 실제 서비스 운영 단계에서 인프라 소유권 및 확장성 문제로 인해 한계에 부딪히는 '프로덕션 갭(Production Gap)' 현상을 분석합니다. 이를 해결하기 위해 AI가 생성한 코드를 재작성하지 않고도 AWS, Vercel 등 전문 인프라로 직접 배포하여 데이터와 배포 권한을 확보하는 전략이 필요함을 강조합니다.
Why Your AI Builder Platform Needs Infrastructure You Can Actually Trust↗dev.to
- 12
AI가 발견한 취약점이 훈련 데이터의 메아리가 아닌지 확인하는 방법
AI 보안 에이전트가 발견한 취약점이 실제 새로운 발견이 아니라, 학습 데이터에 포함된 과거의 CVE(공개된 취약점)를 단순히 기억해낸 것일 수 있다는 경고를 담고 있습니다. 이를 방지하기 위해 NVD 데이터베이스와의 유사도 비교, Git 히스토리 검증, 그리고 식별자를 제거한 코드 익명화 분석이라는 3단계 검증 워크플로우를 제안합니다.
How to verify AI-discovered vulnerabilities aren't just training data echoes↗dev.to
- 17
Swift로 LLM 훈련하기, 1부: Gflop/s에서 Tflop/s까지 행렬 곱셈 가속하기
이 기사는 Apple Silicon 환경에서 별도의 라이브러리 없이 Swift만을 사용하여 LLM(대규모 언어 모델)을 효율적으로 훈련하기 위한 행렬 곱셈 최적화 과정을 다룹니다. CPU, SIMD, AMX, GPU 등 Apple Silicon의 다양한 연산 유닛을 활용해 Gflop/s에서 Tflop/s 단위의 성능을 달성하는 기술적 접근법을 제시합니다.
Training an LLM in Swift, Part 1: Taking matrix mult from Gflop/s to Tflop/s↗cocoawithlove.com
- 18
인터페이즈: 높은 정확도를 위한 확장성 기반의 새로운 모델 아키텍처
Interfaze는 CNN의 정밀한 태스크 수행 능력과 Transformer의 유연한 추론 능력을 결합한 새로운 모델 아키텍처입니다. OCR, 비전, STT 등 높은 정확도가 요구되는 결정론적(deterministic) 작업에서 기존의 Gemini-3-Flash, Claude-Sonnet-4.6 등 주요 모델들을 압도하는 성능을 보여줍니다.
Interfaze: A new model architecture built for high accuracy at scale↗interfaze.ai
- 19
AI 시스템을 위한 시간 인지 인프라 구축: FreshContext
FreshContext는 AI 시스템이 오래된 정보와 최신 정보를 동일하게 취급하는 문제를 해결하기 위해, 데이터의 '신선도(Freshness)'를 기반으로 시간적 점수를 부여하는 인프라 프로젝트입니다. Cloudflare 기술 스택을 활용하여 시간적 감쇠(Temporal Decay)를 적용한 뉴스 및 채용 피드, 그리고 MCP(Model Context Protocol) 서버를 통해 AI 에이전트가 더 정확한 최신 정보를 활용할 수 있도록 돕습니다.
Building FreshContext: Temporal Intelligence Infrastructure for AI Systems↗dev.to
- 22
지갑을 붙여넣고 개인 에어드랍 판정을 받으세요 — 그리고 모든 LLM에서 동일한 로직을 호출하세요
사용자가 지갑 주소를 입력하면 개인별 에어드록 자격을 즉시 판정해주는 새로운 도구가 공개되었습니다. 이 도구는 브라우저 기반의 웹 UI와 LLM(Claude, Cursor 등)에서 직접 호출 가능한 MCP(Model Context Protocol) 도구를 동시에 제공하며, 동일한 온체인 검증 로직을 공유하여 데이터의 일관성을 유지합니다.
Paste a wallet, get a personal airdrop verdict — and call the same logic from any LLM↗dev.to














