프롬프트 엔지니어링 뉴스
LLM 프롬프트 설계, 시스템 프롬프트, 컨텍스트 엔지니어링, 프롬프트 인젝션 방어 등에 관한 글.
총 508건
- 193
에디터와 셸 간의 문맥 전환을 없애기 위해 터미널 파일 피커를 만들었습니다.
개발자가 터미널과 에디터를 오가며 발생하는 컨텍스트 스위칭(Context Switching) 문제를 해결하기 위해, 터미널 내에서 파일 검색부터 인라인 편집까지 한 번에 수행할 수 있는 CLI 도구인 'terminal-file-picker'가 공개되었습니다. Python과 Textual 라이브러리를 활용하여 가볍고 직관적인 워크플로우를 제공하는 것이 특징입니다.
I built a terminal file picker to remove context switching between editor and shell↗dev.to
- 194
Show HN: SigMap – 81.1% 검색 정확도, 96.9% 토큰 감소, 제로 의존성
SigMap은 코드베이스에서 함수와 클래스의 시그니점(Signature)을 추출하여 AI에게 꼭 필요한 컨텍스트만 전달하는 경량화된 검색 도구입니다. 별도의 벡터 DB나 임베딩 인프라 없이도 토큰 사용량을 최대 96.9% 절감하면서 검색 정확도를 81.1%까지 끌어올리는 혁신적인 효율성을 보여줍니다.
Show HN: SigMap – 81.1% retrieval hit 5, 96.9% token reduce,zero deps↗github.com
- 195
Claude Code의 케이브맨 플러그인을 "be brief"와 비교 측정해 보았습니다.
Claude Code의 토큰 압축 플러건인 'Caveman'과 단순 프롬프트 'be brief'의 성능을 비교 분석한 글입니다. 실험 결과 토큰 절감 효율은 비슷했으나, Caveman 플러그인은 단순 프롬프트가 제공하지 못하는 구조적 일관성, 강도 조절, 그리고 안전을 위한 자동 확장(Auto-Clarity) 기능을 통해 차별화된 가치를 제공함을 보여줍니다.
I benchmarked Claude Code's caveman plugin against "be brief."↗maxtaylor.me
- 199
Mistral Medium 3.5 128B, GPU 메모리 부족 없이 실행하는 방법
Mistral Medium 3.5 128B와 같은 초거대 모델을 로컬 또는 자체 서버에서 실행할 때 발생하는 VRAM 부족(OOM) 문제를 해결하기 위한 실전 가이드를 다룹니다. FP8 양자화 활용, vLLM의 텐서 병렬화(Tensor Parallelism), 컨텍스트 길이 제한 및 추론 노력(Reasoning Effort) 조절을 통해 효율적인 모델 서빙 전략을 제시합니다.
How to Serve Mistral Medium 3.5 128B Without Running Out of GPU Memory↗dev.to














