프론티어 LLM에서 명령어 계층 개선
(openai.com)
OpenAI의 IH-Challenge는 LLM을 훈련하여 신뢰할 수 있는 지침을 우선시하게 함으로써 instruction hierarchy, safety steerability 및 prompt injection attacks에 대한 저항력을 높입니다. 이러한 중요한 발전은 AI 시스템의 신뢰성과 보안을 향상시킵니다. 이 기술은 모델이 악의적이거나 조작적인 외부 프롬프트보다 내부 안전 지침을 따르도록 보장합니다.
관련 뉴스
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.