AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 25 페이지
- 0
LLM 애플리케이션에서 법의학적 가시성을 확보하기 위한 AI 감사 로그 구현
LLM 애플리케이션의 보안 위협은 단일 이벤트가 아닌 연속적인 의사결정 과정에서 발생하므로, 단순한 로그를 넘어 상호작용의 인과관계를 추적할 수 있는 '법의학적 가시성(Forensic Visibility)' 확보가 필수적입니다. 이를 위해 데이터 캡처, 암호화 체인, 조사 인터페이스로 구성된 3계급 아키텍처와 증거 수준의 데이터 기록 체계 구축이 필요합니다.
Implementing AI Audit Logs for Forensic Visibility in LLM Applications↗dev.to
- 1
하루에 하나씩 살펴보는 오픈 소스 프로젝트 (제46탄): Y Combinator CEO가 직접 만든 AI 두뇌를 오픈 소스로 공개
Y Combinator의 CEO Garry Tan이 자신이 실제로 사용하는 AI 메모리 시스템인 'GBrain'을 오픈 소스로 공개했습니다. GBrain은 외부 API 호출 전 로컬 메모리를 먼저 조회하는 'Brain-First' 설계를 통해 AI 에이전트의 비용을 절감하고 지능을 축적하는 혁신적인 구조를 제안합니다.
One Open Source Project a Day (No.46): The Y Combinator CEO Wrote His Own AI Brain and Open-Sourced It↗dev.to
- 2
Qwen3.6-27B, SWE-bench에서 77.2% 기록. 덴스 모델이 MoE를 압도하다.
알리바바의 Qwen3.6-27B(Dense) 모델이 SWE-bench Verified에서 77.2%를 기록하며, 효율성 중심의 MoE(Mixture of Experts) 모델인 35B-A3B를 성능으로 압도했습니다. 이는 복잡한 소프트웨어 엔지니어링 작업에서 전체 파라미터를 활용하는 Dense 모델의 추론 능력이 MoE의 효율성보다 더 강력할 수 있음을 시사합니다.
qwen3.6-27b scores 77.2% on SWE-bench. the dense model is winning against MoE.↗dev.to
- 6
$12/월 DigitalOcean Droplet에서 Llama 3.2 Vision 배포하는 방법: 프로덕션용 멀티모달 AI
월 12달러 수준의 저렴한 DigitalOcean GPU Droplet을 활용하여 Llama 3.2 Vision 모델을 배포하는 기술적 방법을 다룹니다. 이미지당 비용이 발생하는 기존 API 방식(GPT-4V 등) 대신, 고정된 서버 비용만으로 대량의 멀티모달 데이터를 처리할 수 있는 비용 효율적인 인프라 구축 전략을 제시합니다.
How to Deploy Llama 3.2 Vision on a $12/Month DigitalOcean Droplet: Multimodal AI for Production↗dev.to
- 7
$6/월 DigitalOcean Droplet에서 Phi-3 Mini 배포하는 방법: 완벽 가이드
Microsoft의 경량 모델인 Phi-3 Mini를 월 6달러 수준의 저렴한 DigitalOcean 서버(CPU 기반)에 배포하여, 고가의 GPU나 API 비용 없이도 효율적인 LLM 서비스를 구축하는 실전 가이드를 제공합니다. Ollama와 Flask를 활용해 누구나 3기 내에 자체적인 LLM API 서버를 구축할 수 있는 방법을 상세히 설명합니다.
How to Deploy Phi-3 Mini on a $6/Month DigitalOcean Droplet: Complete Production Guide↗dev.to
- 9
$12/월 DigitalOcean Droplet에서 vLLM으로 Mistral 7B 배포하기: 15분 만에 프로덕션 환경 구축
이 기사는 월 12달ging달러 규모의 저렴한 DigitalOcean CPU 드롭릿에서 vLLM 엔진을 사용하여 Mistral 7B 모델을 배포하는 실전 가이드를 제공합니다. 고가의 API 비용 대신 효율적인 오픈소스 모델과 추론 엔진을 활용해 비용을 획기적으로 절감하면서도 프로덕션 수준의 환경을 구축하는 전략을 제시합니다.
How to Deploy Mistral 7B with vLLM on a $12/Month DigitalOcean Droplet—Production-Ready in 15 Minutes↗dev.to
- 14
익명 자격 증명: 그림으로 보는 기초 (2부)
본 기사는 익명 자격 증명(Anonymous Credentials)의 이론을 넘어, Cloudflare와 Apple 등이 실제로 사용 중인 'Privacy Pass' 프로토콜의 실무적 구현을 다룹니다. 사용자의 신원을 노출하지 않으면서도 봇(Bot) 공격을 방지하고 인증을 수행할 수 있는 블라인드 서명(Blind Signature) 기술의 핵심 메커니즘을 설명합니다.
Anonymous credentials: an illustrated primer (Part 2)↗blog.cryptographyengineering.com
- 15
Anthropic의 새로운 AI 설계 업데이트: Claude가 미래를 위해 어떻게 구축되고 있는지
Anthropic은 단순한 성능 경쟁을 넘어, '안전 우선(Safety-first)' 철학을 바탕으로 Claude의 설계 방식을 근본적으로 재정의하고 있습니다. Constitutional AI(CAI)와 모델 스펙(Model Spec)을 통해 AI의 행동 원칙을 명시적으로 규정함으로써, 더욱 예측 가능하고 신뢰할 수 있는 AI 시스템 구축에 집중하고 있습니다.
Anthropic's New Update on Designing AI: How Claude Is Being Built for the Future↗dev.to
- 17
시맨틱 캐싱으로 LLM 토큰 비용 절감하는 방법: 프로덕션 환경 구축 가이드
LLM API 호출 시 발생하는 토큰 비용을 획기적으로 줄이기 위해, 유사한 질문에 대해 캐시된 응rypt를 반환하는 '시맨틱 캐싱(Semantic Caching)' 구축 방법을 소개합니다. Bifrost 게이트웨이와 Weaviate 벡터 데이터베이스를 활용하여, 의미적으로 유사한 요청에 대해 LLM 호출 없이 즉각적인 응답을 제공함으로써 비용과 지연 시간을 동시에 절감할 수 있습니다.
How to Cut LLM Token Spend with Semantic Caching: A Production Setup Guide↗dev.to
- 19
Anthropic의 Mythos 롤아웃, 미국의 사이버 보안 기관을 놓쳤다
Anthropic의 새로운 사이버 보안 AI 모델인 'Mythos Preview'가 미 상무부와 NSA 등 주요 기관에 도입되고 있으나, 미국의 핵심 사이버 보안 조정 기구인 CISA는 접근 권한에서 제외되었습니다. 이는 트럼프 행정부의 CISA 예산 감축 및 인력 재배치와 맞물려 미국의 국가적 디지털 보안 역량에 공백을 초래할 수 있다는 우려를 낳고 있습니다.
Anthropic’s Mythos rollout has missed America’s cybersecurity agency↗theverge.com













