캠프
AI 교육 아이펠
AI 엔지니어
- AI 기초
(모집중)
AI 리서처
- AI 심화
(모집중)
직장인 액티브러닝 캠프
AI/LLM 서비스 개발
(모집중)
AI/LLM 데이터 분석
- 비즈니스 인사이트 도출
(모집중)
바이브코딩 서비스 기획/개발
(모집중)
AI 온라인 강의
커뮤니티
라운지
- 모두의 커뮤니티
모두모임
- 함께 성장하는 즐거움
LAB
- 모두의 열린 연구실
페이퍼샵
- 해외 학술 논문 지원
테크포임팩트
- 임팩트 기술 커뮤니티
무료 세미나
직장인 AI
- 직장인 대상 무료 교육
모두콘 2025
- From AI to Infinity
모두팝
- AI/SW 세미나
AI 기업 교육
블로그
스토리
캠프
AI 온라인 강의
커뮤니티
무료 세미나
AI 기업 교육
블로그
스토리
로그인
로그인
아티클
모두연 인기
디지털 인재양성
LLM의 보안 관련 논문들 - 모두연 AI 뉴스(241021)
최근 대규모 언어 모델(LLM)의 급속한 발전으로 모델 보안에 대한 우려가 증가하고 있습니다.특히 백도어 공격은 LLM의 심각한 취약점으로 지적되며, 이는 모델이 특정 트리거에 노출될 때 의도된 오류 출력을 생성해 문제가 발생하고 있습니다.
2024.10.21
|
이영빈
이영빈
모두의연구소
🖥️ 모두의연구소 아이펠 퍼실리테이터
🏛️ JAX-KR 오거나이저 / AI GDE
😎 GDG Incheon 오거나이저
목록으로 돌아가기
목록으로 돌아가기
공유하기
공유하기