AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 27 페이지
- 1
브루넬, 스튜어드십 노력을 보호하기 위한 AI 기반 주식 대출 도구 개발
브루넬(Brunel)이 기관 투자자의 스튜어드십(주주권 행사) 활동을 방해하지 않으면서도 수익을 극대화할 수 있는 AI 기반 주식 대출 도구를 개발하고 있습니다. 이 도구는 주식 대출을 통한 수익 창출과 기업 지배구조에 대한 책임 있는 의결권 행사 사이의 상충 관계를 AI로 해결하는 데 초점을 맞춥니다.
Brunel develops AI-backed stock lending tool to protect stewardship efforts↗responsible-investor.com
- 7
Show HN: Mediator.ai – Nash bargaining과 LLM을 활용하여 공정성을 체계화하다
Mediator.ai는 나쉬 협상 이론(Nash bargaining theory)과 대규모 언어 모델(LLM)을 결양하여 이해관계자 간의 갈등을 해결하고 최적의 합의안을 도출하는 솔루션입니다. 양측의 요구사항을 개별적으로 분석한 뒤, 수학적 공정성을 기준으로 반복적인 초안 작성을 통해 양측 모두가 수용 가능한 '윈-윈(Win-Win)' 계약을 생성합니다.
Show HN: Mediator.ai – Using Nash bargaining and LLMs to systematize fairness↗mediator.ai
- 10
LLM 컨텍스트 윈도우 제한을 대화 품질 저하 없이 처리하는 방법
LLM의 컨텍텍 윈도우가 커지더라도 비용, 지연 시간, 정보 누락(Lost in the middle) 문제로 인해 효율적인 컨텍스트 관리가 필수적입니다. 본 기사는 슬라이딩 윈도우 요약, 관련성 기반 검색, 구조화된 메모리 활용이라는 세 가지 실전 전략을 통해 대화 품질을 유지하며 컨텍스트 한계를 극복하는 방법을 제시합니다.
How we handle LLM context window limits without losing conversation quality↗dev.to
- 14
OpenAI 광고 파트너, “프롬프트 관련성” 기반 ChatGPT 광고 슬롯 판매 시작
광고 플랫폼 StackAdapt가 ChatGPT 내 광고 삽입을 위한 파일럿 프로그램을 진행하며, 사용자의 프롬프트 맥락과 관련된 제품을 노출하는 새로운 광고 모델을 테스트하고 있습니다. 이는 사용자가 제품을 비교·검토하는 '발견 단계'를 타겟팅하여 새로운 광고 레이어를 구축하는 것이 핵심입니다.
OpenAI ad partner now selling ChatGPT ad placements based on “prompt relevance”↗adweek.com
- 17
메모리 병목 현상은 극복할 수 없다 — 모든 아키텍처가 직면하는 것을 증명하는 3개의 논문
AI 연산의 핵심 병목인 '메모리 벽(Memory Wall)'은 특정 아키텍처의 문제가 아니라, 모든 차세대 컴퓨팅 구조가 직면한 구조적 한계임을 최신 논문들을 통해 증명합니다. GPU의 대역폭 문제를 넘어 뉴로모픽의 면적/누설 전류, NPU의 리프레시 에너지 문제로 병목의 형태만 바뀔 뿐 근본적인 해결은 어렵다는 것이 핵심입니다.
The Memory Wall Can't Be Killed — 3 Papers Proving Every Architecture Hits It↗dev.to
- 20
Deezer, 매일 업로드되는 노래의 44%가 AI 생성이라고 발표
음악 스트리밍 플랫폼 Deezer에 따르면, 최근 업로드되는 신규 음악의 44%가 AI 생성물로 나타났으며, 이는 매일 약 75,000곡에 달하는 엄청난 규모입니다. Deezer는 AI 음악의 급증에 대응하여 사기성 스트리밍을 차단하고, AI 생성물에 대한 별도 태깅 및 추천 알고리즘 제외 등 강력한 관리 정책을 시행하고 있습니다.
Deezer says 44% of songs uploaded to its platform daily are AI-generated↗techcrunch.com
- 23
지식 쌓아두기의 뜻밖의 이점: Papers와 함께한 2년이 알려준 정보 중독에 대한 이야기
이 글은 12,847개의 문서를 저장한 개발자가 'Papers'라는 도구를 2년간 사용하며 겪은 정보 과부하와 지식 축적의 양면성을 다룹니다. 단순한 정보 저장이 아닌, 예상치 못한 연결(Serendipity)과 사고의 확장(External Brain)을 위한 도구로서의 가치와 정보 중독의 위험성을 동시에 경고합니다.
The Unexpected Benefits of Knowledge Hoarding: What Two Years with Papers Taught Me About Information Addiction↗dev.to
















