AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 43 페이지
- 4
2026년 LLM 보안: Python 개발자 체크리스트 (프로덕션에서 호되게 당하고 배운 점)
이 글은 2026년 기준 프로덕션 환경에서 겪은 프롬프트 인젝션 경험을 바탕으로, Python 개발자를 위한 LLM 보안 체크리스트를 제시합니다. OWASP LLM01:2025에서 가장 위험한 취약점으로 꼽히는 프롬프트 인젝션 등 실제 발생한 사건들을 언급하며, 직접/간접 인젝션 및 다중 에이전트 공격의 위협 모델을 설명하고 구체적인 5가지 보안 지침을 제안합니다.
LLM Security in 2026: The Python Developer's Checklist (What I Learned Getting Burned in Production)↗dev.to
- 7
500달러 GPU, 코딩 벤치마크에서 Claude Sonnet 능가
ATLAS는 단일 소비자용 GPU에서 실행되는 14B 규모의 경량 모델이 지능형 인프라(구조화된 생성, 자체 검증된 반복 정제 등)를 통해 Claude Sonnet을 능가하는 코딩 벤치마크 성능을 달성했음을 보여줍니다. 이는 API 호출이나 클라우드 없이 온전히 자체 호스팅되어, 비용을 획기적으로 절감하고 데이터 주권 문제를 해결합니다. 고가의 모델 파인튜닝 없이도 프론티어급 AI 성능을 경제적인 방식으로 구현할 수 있음을 입증했습니다.
$500 GPU outperforms Claude Sonnet on coding benchmarks↗github.com
- 8
이제 다른 챗봇에서 채팅 및 개인 정보를 Gemini로 바로 전송할 수 있습니다
구글 제미니가 '스위칭 툴'을 공개하며 다른 챗봇에서 개인 정보('기억')와 전체 채팅 기록을 제미니로 바로 전송할 수 있게 되었습니다. 이는 사용자가 제미니를 처음부터 다시 학습시킬 필요 없이 쉽게 채택하도록 유도하여, 주요 경쟁 챗봇인 챗GPT로부터 사용자를 유치하려는 전략입니다. 구글은 이를 통해 소비자 AI 챗봇 시장에서 선두주자인 챗GPT와의 격차를 줄이고자 합니다.
You can now transfer your chats and personal information from other chatbots directly into Gemini↗techcrunch.com
- 11
ATOM MCP Server로 실시간 AI Inference 가격 조회
ATOM은 47개 벤더와 2,583개 SKU에 걸친 LLM 가격 정보를 실시간으로 추적하고 표준화하여 제공하는 서비스입니다. 이 데이터를 Model Context Protocol(MCP) 서버를 통해 AI 에이전트가 직접 쿼리할 수 있도록 함으로써, 복잡하고 변동성 높은 LLM 추론 비용을 최적화하고 투명성을 높입니다. 이를 통해 에이전트 기반 AI 애플리케이션의 비용 효율적인 모델 선택을 지원합니다.
Query Live AI Inference Pricing with the ATOM MCP Server↗dev.to
- 12
ByteDance의 새로운 AI 동영상 생성 모델 Dreamina Seedance 2.0, CapCut에 출시
바이트댄스가 새로운 AI 동영상 생성 모델 'Dreamina Seedance 2.0'을 자사 편집 플랫폼 CapCut에 출시했습니다. OpenAI의 Sora 앱 중단과 대비되는 행보로, 브라질, 인도네시아 등 7개 시장부터 단계적으로 배포되며 향후 지적재산권 문제를 해결하며 시장을 확대할 예정입니다. 이 모델은 텍스트, 이미지, 참조 영상을 활용해 비디오와 오디오를 생성, 편집, 동기화하는 기능을 제공합니다.
ByteDance’s new AI video generation model, Dreamina Seedance 2.0, comes to CapCut↗techcrunch.com
- 13
Cohere, 전사 전용 오픈 소스 음성 모델 출시
AI 기업 코히어(Cohere)가 자사의 첫 오픈 소스 음성 모델인 '트랜스크라이브(Transcribe)'를 출시했습니다. 이 모델은 20억 개 매개변수로 경량화되어 소비자용 GPU에서도 구동 가능하며, 줌 스크라이브(Zoom Scribe) 등 기존 모델을 능가하는 성능을 보여줍니다. 한국어를 포함한 14개 언어를 지원하며, 무료 API 제공 및 자체 호스팅을 지원해 접근성을 높였습니다.
Cohere launches an open source voice model specifically for transcription↗techcrunch.com
- 14
Mistral, 음성 생성을 위한 새로운 오픈소스 모델 공개
프랑스 AI 기업 미스트랄이 음성 AI 비서 및 기업용으로 활용 가능한 새로운 오픈소스 텍스트-음성 변환(TTS) 모델 'Voxtral TTS'를 출시했습니다. 이 모델은 소형 기기에 탑재 가능하고 비용 효율적이며, 9개 언어를 지원하고 미묘한 음성 특성까지 재현하며 실시간 성능을 자랑하여 ElevenLabs, OpenAI 등과 직접 경쟁하게 됩니다.
Mistral releases a new open source model for speech generation↗techcrunch.com
- 15
AI가 정답을 아는데도 환각을 보이는 이유
이 기사는 AI가 때때로 '환각'을 일으켜 잘못된 정보를 그럴듯하게 제시하는 이유를 심층적으로 설명합니다. AI는 사실을 저장하는 데이터베이스가 아니라, 방대한 텍스트 데이터에서 통계적 패턴을 학습하여 다음 단어를 예측하는 '예측 기계'이기 때문입니다. 따라서 AI는 사실적으로 정확한 텍스트보다는 통계적으로 그럴듯한 텍스트를 생성하도록 훈련되며, 정보가 부족할 때 그럴듯한 패턴을 채워넣으면서 거짓 정보를 만들어낼 수 있습니다.
Why AI Hallucinates Even When It Knows the Answer↗dev.to
- 17
Ensu: Ente의 로컬 LLM 앱
Ente는 빅테크 기업에 의존하지 않는 개인 정보 보호와 통제를 강조하며 오프라인에서 구동되는 로컬 LLM 앱 'Ensu'를 출시했습니다. 이 앱은 완전히 기기 내에서 작동하여 프라이버시를 보장하며, 향후 E2EE 동기화 및 백업 기능을 통해 더욱 개인화된 AI 경험을 제공할 예정입니다. Ensu는 아직 초기 단계이지만, Ente는 과거 로컬 얼굴 인식 기술 성공 사례를 바탕으로 로컬 LLM의 '충분한 역량' 임계점 도달 가능성을 믿고 있습니다.
Ensu – Ente’s Local LLM app↗ente.com
- 18
ARC-AGI-3은 AI 에이전트의 인간과 유사한 지능을 측정하기 위해 고안된 새로운 인터랙티브 추론 벤치마크입니다. 이는 정적인 퍼즐 해결을 넘어, 에이전트가 새로운 환경에서 지속적으로 학습하고, 경험을 통해 적응하며, 목표를 효율적으로 달성하는 능력을 평가합니다. 궁극적으로 인간 학습과 AI 학습 간의 격차를 수량화하여 범용 인공지능(AGI) 개발을 촉진하는 데 중점을 둡니다.
ARC-AGI-3은 AI 에이전트의 인간과 유사한 지능을 측정하기 위해 고안된 새로운 인터랙티브 추론 벤치마크입니다. 이는 정적인 퍼즐 해결을 넘어, 에이전트가 새로운 환경에서 지속적으로 학습하고, 경험을 통해 적응하며, 목표를 효율적으로 달성하는 능력을 평가합니다. 궁극적으로 인간 학습과 AI 학습 간의 격차를 수량화하여 범용 인공지능(AGI) 개발을 촉진하는 데 중점을 둡니다.
ARC-AGI-3↗arcprize.org
- 19
Claude Skills, Plugins, Agent Teams, Cowork 완벽 분석
클로드(Claude)의 AI 기능은 '스킬(Skills)'의 단순한 재사용 가능한 기능부터 외부 데이터에 접근하는 '플러그인(Plugins)', 여러 AI가 협업하는 '에이전트 팀(Agent Teams)', 그리고 복잡한 비즈니스 워크플로우를 자동화하는 '코워크(Cowork)'까지 점진적으로 발전합니다. 이 글은 각 기능의 특징과 적용 시점을 실제 예시를 통해 설명하며, AI 활용의 복잡도 증가에 따른 유기적 연동 방안을 제시합니다.
Claude Skills, Plugins, Agent Teams, and Cowork demystified.↗dev.to
- 20
Google, 새로운 AI 메모리 압축 알고리즘 TurboQuant 공개… 인터넷은 'Pied Piper'라 부른다
구글이 AI 추론(inference) 시 작업 메모리(KV 캐시)를 최대 6배까지 줄이는 새로운 AI 메모리 압축 알고리즘 'TurboQuant'를 공개했습니다. 이 기술은 성능 저하 없이 AI 실행 비용을 대폭 절감하고 효율을 극대화하여, HBO 드라마 '실리콘 밸리'의 압축 기술 'Pied Piper'에 비유되며 큰 기대를 모으고 있습니다. 현재는 연구실 단계의 기술이지만, AI 운영 비용 절감에 큰 영향을 미칠 잠재력을 가집니다.
Google unveils TurboQuant, a new AI memory compression algorithm — and yes, the internet is calling it ‘Pied Piper’↗techcrunch.com
- 21
Google, Lyria 3 Pro 음악 생성 모델 출시
구글이 음악 생성 모델 '리리아 3 프로(Lyria 3 Pro)'를 출시하며, 기존 30초에서 최대 3분 길이의 트랙 생성을 지원합니다. 이 모델은 사용자에게 향상된 창작 제어 기능과 더불어 인트로, 벌스, 코러스 등 세부 트랙 구조를 이해하여 정교한 음악 생성을 가능하게 합니다. 리리아 3 프로는 제미니(Gemini) 앱 유료 구독자 및 구글 비즈(Google Vids), 프로듀서AI(ProducerAI), 그리고 버텍스AI(Vertex AI) 등 구글의 다양한 앱과 엔터프라이즈 도구에 통합될 예정입니다.
Google launches Lyria 3 Pro music generation model↗techcrunch.com









