AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 38 페이지
- 1
대규모 Entity Resolution: Amazon, Reddit, RTINGS 간의 제품 매칭
Amazon, Reddit 등 서로 다른 플랫폼의 불일치하는 제품명을 동일한 제품으로 식별하는 '엔티티 해상도(Entity Resolution)' 문제를 해결하기 위한 3단계 계층적 접근법을 소개합니다. 복잡한 ML 모델을 구축하는 대신 정규화, 퍼지 매칭, 외부 교차 검증을 조합하여 비용 효율적으로 문제를 해결한 사례를 다룹니다.
Entity Resolution at Scale: Matching Products Across Amazon, Reddit, and RTINGS↗dev.to
- 2
AI 주간 리포트: 2026/4/1–4/10 Anthropic의 3연속 충격——Mythos 너무 위험해 공개 불가, 매출 OpenAI 추월, 소프트웨어주 급락
이번 주 한 줄 요약: 지난주의 유출이 이번 주의 현실이 되었습니다. 그리고 그 현실은 루머보다 훨씬 더 충격적입니다. 이번 주의 두 주인공: Anthropic이 이번 주의 기술적 경계(Mythos가 너무 강력하여 공개하기 어려울 정도)를 정의했다면, OpenAI는 이번 주의 자본적 한계치($122 billion 규모의 단일 라운드 펀딩)를 정의했습니다. 이 두 흐름이 동시에 진행되면서, 2026년의 AI 경쟁은 '누구의 모델이 더 강력한가'에서 '누가 Governance, Trust, Capital이라는 세 가지 전선에서 동시에 앞서나갈 수 있는가'로 완전히 전환되었습니다. 1. 가장 중요한 사건: Anthropic의 3중 충격 후속보 지난주 우리는 Anthropic의 세 가지 충격적인 소식을 전했습니다: IPO 계획 노출, Mythos 모델의 예기치 못한 유출, 그리고 Claude Code 소스 코드 유출입니다. 이번 주, 이 세 가지 모두 후속 상황이 드러났으며, 그 충격은 유출 당시보다 더욱 강력했습니다. 1. Mythos의 공식 등장, 그러나 공개 배포는 거부됨 (4/7) Anthropic은 Project Glasswing을 통해 Mythos Preview를 공식 발표했습니다. 하지만 이는 평범한 모델 발표가 아니었습니다. AI 산업 역사상 처음으로, 한 기업이 자사의 가장 강력한 모델을 공개적으로 배포하는 것을 스스로 거부한 사례입니다. 그 이유는 불안감을 자아냅니다. Mythos가 테스트 과정에서 이전에 알려지지 않았던 수천 개의 Zero-day vulnerability를 자율적으로 발견했으며, 이는 모든 주요...
AI 週報:2026/4/1–4/10 Anthropic 三震續集——Mythos 太危險不敢放、營收超車 OpenAI、軟體股應聲重挫↗dev.to
- 3
FAQ Schema가 AI Citations를 2.7배 늘려줍니다. 하지만 당신이 생각하는 이유 때문은 아닙니다.
2025년 Relixir의 연구에 따르면, FAQPage schema가 적용된 페이지의 AI citation rate는 41%로, 적용되지 않은 페이지의 15%에 비해 약 2.7배 더 높았습니다. 이는 실제 연구를 통해 얻은 수치입니다. 하지만 여기서 주목할 점이 있습니다. AI models는 JSON-LD를 structured data로 파싱하지 않습니다. 대신 일반 문단을 읽는 것과 동일하게 이를 raw text로 tokenize합니다. 저희는 최근 사이트 내 36개 페이지에 FAQ schema를 추가했습니다. 적용하기 전, 저희는 이 현상이 왜 발생하는지 그 원인을 이해하고자 했습니다. 상관관계보다 중요한 것은 작동 메커니즘이기 때문입니다. 그 결과는 다음과 같습니다.
FAQ Schema Gets You 2.7x More AI Citations. But Not for the Reason You Think.↗dev.to
- 4
당신의 웹사이트는 존재합니다. AI는 그 사실을 모릅니다.
누군가 방금 ChatGPT에게 당신의 업계에 대한 추천을 요청했습니다. 답변에는 경쟁사가 포함되어 있었지만, 당신은 없었습니다. 그들이 더 뛰어나서가 아닙니다. AI가 그들이 무엇을 하는지는 알고 있었지만, 당신이 무엇을 하는지는 몰랐기 때문입니다. 그 격차는 매일 벌어지고 있습니다. 그리고 해결 방법은 매우 간단합니다. 아무도 이야기하지 않는 문제 Google은 당신의 site를 crawl합니다. HTML을 읽고, link를 따라가며, page를 index합니다. 이 system은 25년이나 되었지만 여전히 잘 작동합니다. AI assistants는 그렇게 하지 않습니다. Perplexity, ChatGPT가,
Your Website Exists. AI Doesn't Know That.↗dev.to
- 13
LLM 제공업체가 프로덕션 도중 유스케이스 사용을 금지할 때 벌어지는 일
40,000개의 tool이 production에서 운영 중이던 OpenClaw가 Claude로부터 차단되었습니다. 사전 경고도, 유예 기간도 없이, 단지 policy enforcement만으로 그들의 전체 inference pipeline이 중단되었습니다. 유사한 시스템을 운영하는 사람들이 느끼는, 예상 가능한 schadenfreude와 공포가 뒤섞여 Hacker News 스레드가 들썩이는 것을 지켜보았습니다. 이것은 edge case가 아닙니다. Anthropic, OpenAI, 그리고 모든 LLM provider는 약관을 변경하거나, capacity를 throttle하거나, 혹은 use case를 완전히 차단할 권리를 보유하고 있습니다. production traffic을 처리할 때는,
What Happens When Your LLM Provider Bans Your Use Case Mid-Production↗dev.to
- 19
Show HN: BrokenClaw 5부: GPT-5.4 에디션 (Prompt Injection)
GPT-5.4 모델을 사용하는 AI 에이전트(OpenClaw)에서 프롬프트 인젝션을 통해 원격 코드 실행(RCE)이 가능함을 증명한 보안 취약점 분석 보고서입니다. 공격자가 웹 페이지나 이메일 내에 인코딩된 악성 명령어를 숨겨두면, 에이전트가 이를 스스로 해석하고 실행하여 시스템 권한을 탈취할 수 있음을 보여줍니다.
Show HN: BrokenClaw Part 5: GPT-5.4 Edition (Prompt Injection)↗veganmosfet.codeberg.page

















