AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 4 페이지
- 0
AIOps 이상 감지부터 LLM 기반 근본 원인 분석까지: 실제 인시던트 대응 AI 진화 과정
기존 AIOps가 수치 데이터 기반의 이상 감지(Detection)에 머물렀다면, 이제는 LLM을 활용해 로그, 코드, 설정 등 다양한 소스를 통합 분석하여 근본 원인(RCA)을 설명하는 단계로 진화하고 있습니다. 이는 단순 알람을 넘어 '왜 발생했는지'에 대한 증거 기반의 진단을 가능하게 하는 패러다임의 전환을 의미합니다.
From AIOps Anomaly Detection to LLM-Powered RCA: How AI for Incident Response Actually Evolved↗dev.to
- 7
챗GPT가 3개의 가짜 인용문을 만들어낸 후, AI 논문 도구 구축
챗GPT가 존재하지 않는 가짜 인용문을 생성하는 '환각(Hallucination)' 문제를 해결하기 위해, 사용자가 업로드한 PDF 문서 내에서만 근거를 찾아 답변하는 AI 논문 작성 도구 'Academly.ai'가 개발되었습니다. 이 서비스는 단순한 텍스트 생성을 넘어 질적 연구 방법론(Mayring) 등 특정 학술 워크플로우를 지원하며, 데이터의 신뢰성을 확보하는 데 집중합니다.
I built an AI thesis tool after ChatGPT invented 3 fake citations↗dev.to
- 10
AI가 잡아낸 실수로 고객에게 18만 파운드 손실을 입힐 뻔한 기능 출시 위기
AI 기반 모호성 탐지 에이전트 'Specc'가 고객 지원 스레드와 개발 티켓 사이의 불일치를 발견하여, 약 18만 파운드(한화 약 3억 원) 규모의 고객 갱신 계약 손실 위기를 막아낸 사례입니다. 개발 범위에서 누락된 핵심 기능 요구사항을 AI가 실시간으로 포착하여 제품 개발과 고객 요구 사이의 정보 격차를 해소했습니다.
We nearly shipped a feature that would have cost our customer £180k. An AI caught it.↗indiehackers.com
- 12
오픈 소스 LLM 로컬 실행: Ollama부터 DeepSeek까지, 개인 AI 구축하기
오픈 소스 LLM의 성능이 클로성 소스 모델에 근접함에 따라, Ollama와 같은 도구를 활용해 개인용 컴퓨터에서 저비용·고효율로 AI를 구축하는 방법을 다룹니다. 데이터 보안, 비용 절감, 오프라인 사용성을 위해 로컬 LLM 구축에 필요한 하드웨어 요구사항과 도구별 특징, 실행 가이드를 상세히 설명합니다.
Run Open-Source LLMs Locally: From Ollama to DeepSeek and Build Your Private AI↗dev.to
- 13
키위찬, 클라우드 굴레를 깨다: 47% 성공률, 제로 API 호출, 그리고 로컬 LLM 비행사의 부상
자율형 마인크래프트 에이전트 'Kiwi-chan'이 클라우드 API 의존성을 완전히 제거하고 Qwen 35B 모델을 활용한 100% 로컬 추론 시스템으로 전환했습니다. 이를 통해 API 비용과 지연 시간을 없애면서도 4기능적 자율성을 유지하며 47.1%의 작업 성공률을 기록, 로컬 LLM의 실용적 가능성을 입증했습니다.
KIWI-CHAN BREAKS THE CLOUD CHAINS: 47% Success Rate, Zero API Calls, and the Rise of the Local LLM Aviator↗dev.to
- 19
로컬 AI는 보편화되어야 한다. 하지만 2,000달러 상당의 Mac은 아무나 가질 수 있는 것이 아니다.
로컬 AI는 프라이버시 측면에서 우수하지만, 고가의 하드웨어 비용이 전 세계 개발자들에게 큰 진입장벽이 되고 있습니다. 이 기사는 $20/월이라는 기존 빅테크의 구독 모델과 고가 하드웨어의 대안으로, 저개발 국가의 경제 수준에 맞춘 $2/월 정액제 Claude 인터페이스인 'SimplyLouie'의 등장과 그 비즈니스적 가치를 조명합니다.
Local AI 'needs to be the norm.' But not everyone has a $2,000 Mac.↗dev.to
- 20
AI 추론을 위한 빠른 콜드 스타트, 실제로 어떤 서버리스 GPU 플랫폼이 빠른가 — p99, p50이 아니다
AI 추론 서비스의 콜드 스타트 지연 시간(p99)을 결정하는 핵심 요소는 모델 로딩 시간이 아닌 인프라 대기 시간(queue time)입니다. 단일 클라우드 제공자에 의존하는 플랫폼은 수요 급증 시 지연 시간이 급격히 늘어나지만, 멀티 클라우드 자원을 풀링하는 아키텍처는 이를 효과적으로 억제할 수 있습니다.
Which serverless GPU platforms actually have fast cold starts for AI inference — p99, not p50↗dev.to
- 22
AI 음성으로 웹페이지를 읽어주는 오프라인 Chrome 확장 프로그램, 클라우드 연결 없이 만들었습니다
GlowReadTTS는 클라우드 연결 없이 브라우저 내에서 고품질 AI 음성을 제공하는 오프라인 Chrome 확장 프로그램입니다. 96MB의 AI 모델을 확장 프로그램에 직접 내장하여, 개인정보 유출 걱정 없이 로컬 기기에서 텍스트를 자연스러운 음성으로 읽어주는 것이 핵심입니다.
I built an offline Chrome extension that reads webpages aloud with AI voices and zero cloud calls↗dev.to















