AI 모델 (LLM·GPT·Claude·Gemini)
GPT, Claude, Gemini, Llama 등 AI 모델(LLM) 출시·벤치마크·API 변경사항을 모읍니다.
AI 모델 관련 글 — 21 페이지
- 1
Show HN: WaveletLM – O(n log n) 스케일링을 가진 웨이블릿 기반, 어텐션 없는 모델
WaveletLM은 기존 트랜스포머의 어텐션 메커니즘을 제거하고 웨이블릿 변환(Wavelet Transform)을 도입하여 시퀀스 길이에 대해 O(n log n)의 효율적인 스케일링을 구현한 새로운 언어 모델 아키텍처입니다. 학습된 리프팅 웨이블릿 분해와 FWHT(Fast Walsh-Hadamard Transform)를 통해 긴 문맥을 매우 효율적으로 처리할 수 있는 가능성을 제시합니다.
Show HN: WaveletLM – wavelet-based, attention-free model with O(n log n) scaling↗github.com
- 5
미세 조정된 모델, 프롬프트 기반이 아니다: 오펜시브 보안에서 LLM 래퍼를 능가하는 이유
단순히 LLM API를 활용하는 '프롬프트 기반 래퍼' 방식은 보안 분야에서 환각, 프롬프트의 취약성, 학습 루프 부재라는 치명적 한계를 가집니다. 반면, 전문적인 공격 데이터를 통해 모델 가중치에 패턴을 내재화하고 지속적인 학습 루프를 구축한 '미세 조정(Fine-tuned) 모델'이 보안 성능의 핵심 경쟁력이 될 것입니다.
Trained, Not Prompted: Why Fine-Tuned Models Beat LLM Wrappers for Offensive Security↗dev.to
- 6
VEXT Specialist-7B: 7B 모델이 Frontier AI의 보안 벤치마크를 능가하는 방법
VEXT Specialist-7B는 특정 보안 도메인에 특화된 7B 파라미터 모델로, GPT-4o나 Claude Opus와 같은 거대 모델보다 침투 테스트 및 보안 벤치마크에서 압도적인 성능을 보여줍니다. 3단계 계층형 아키텍처와 고품질의 실제 보안 데이터를 활용하여 추론 비용을 95% 절감하면서도 보안 정확도를 극대화했습니다.
VEXT Specialist-7B: How a 7B Model Beats Frontier AI on Security Benchmarks↗dev.to
- 10
OpenAI 서비스 중단 사후 분석: 상태 페이지가 말해주지 않는 것들
OpenAI와 같은 LLM 제공업체의 상태 페이지는 전체적인 가용성만 보여줄 뿐, 실제 사용자가 겪는 미세한 서비스 저하를 포착하지 못합니다. 따라서 개발자는 단순한 API 생존 여부를 넘어 지연 시간, 토큰 처리량, 스키마 검증 성공률 등 5가지 핵심 지표를 직접 모니터링하는 'LLM 관측성(Observability)' 체계를 구축해야 합니다.
OpenAI Outage Postmortem: What Status Pages Don't Tell You↗dev.to
- 21
Show HN: GPT/Claude 인용 시 AI 가시성 모니터 - 사이트 언급 추적
이 기사는 ChatGPT, Claude, Perplexity 등 AI 검색 엔진에서의 웹사이트 노출 및 인용 여부를 추적할 수 있는 Python 기반의 오픈소스 툴킷 'AI Visibility Monitor'를 소개합니다. 별도의 유료 SaaS 없이 로컬 환경에서 실행 가능한 이 도구는 AI 시대의 새로운 마케팅 지표인 'AI 인용률'과 'AI 유입 트래픽'을 정밀하게 모니터링할 수 있게 해줍니다.
Show HN: AI Visibility Monitor – Track if your site gets cited by GPT/Claude↗github.com
- 23
더 많은 파라미터가 더 중요할까, 더 많은 컴퓨테이션이 더 중요할까? (2021)
본 기사는 딥러닝 모델의 성능을 결정하는 핵심 요소인 '파라미터 수'와 '연산량'을 분리하여 생각할 수 있는 새로운 방법론을 제시합니다. 해시 레이어(Hash Layers)를 통해 연산량 증가 없이 파라미터 규모를 키우는 방법과, 계단식 어텐션(Staircase Attention)을 통해 파라미터 수 증가 없이 연산량을 늘려 성능을 높이는 두 가지 혁신적인 접근법을 다룹니다.
Which one is more important: more parameters or more computation? (2021)↗parl.ai








![팁: 웹 요청은 헤르츠[Hertz]로 측정해서는 안 됩니다](https://startupschool.cc/og/tip-web-requests-should-not-be-measured-in-hz-hertz-2a5ef9.jpg)








