지식과 노하우를 공유하는 세미나에 참여해봐요!
하고 싶은 프로젝트, 대회, 논문, 연구 등을 진행해봐요!
LPTS (LLM Paper Translation and Summarization Lab) LAB
공학
Lab명: LLM 기반 논문 번역 및 요약 연구실 (LLM Paper Translation and Summarization Lab) : LPTS Lab 소개: 본 연구실은 최신의 대규모 언어모델(Large Language Models, LLM)을 활용하여 학술 논문의 번역 및 요약 작업을 효과적으로 수행하는 데 집중합니다. 다양한 모델(GPT-4, Llama3, Claude)의 성능 비교를 통해 최적의 모델을 선택하고, 논문 내의 특수 요소(표, 도식, 수식)에 대한 전처리 기법을 개발합니다. 또한, 긴 문맥을 다루는 논문의 번역 및 요약을 위한 전략을 수립하여 번역 품질을 극대화하는 방법을 연구합니다. Lab 계획 1. 모델 성능 비교: GPT-4, Llama3, Claude를 포함한 여러 LLM의 번역 및 요약 성능을 평가. 이를 위해 기존 데이터셋을 활용하고 필요시 새로운 평가 체계를 개발 2. 전처리 기법 개발: 논문에서 흔히 발견되는 표, 도식, 수식 등을 언어 모델이 이해하고 처리할 수 있도록 변환하는 전처리 기법을 개발 3. Chunking 전략: 긴 문장이나 단락을 효과적으로 처리할 수 있는 'Chunking' 전략을 개발. 이는 모델의 메모리 한계를 극복하고, 문맥 이해도를 높여 번역 및 요약의 품질을 향상 4. Long-Context 처리: 긴 문맥을 가진 논문의 번역 및 요약을 위해 특화된 방법을 개발. 복잡하고 긴 문서에 대한 효과적인 번역과 요약 방법을 모색하여 실제 학계에서의 활용도를 높이는 것을 목표로 함. Lab 목표 1. 최적화된 번역 모델 선정: 여러 LLM을 비교 분석하여 가장 효율적인 논문 번역 모델을 선정 2. 전처리 기법 표준화: 학계 논문에 자주 등장하는 특수 요소를 처리하는 표준화된 방법론을 개발 3. 번역 및 요약 품질 개선: 전문적인 번역과 요약을 통해 학계 자료의 접근성을 향상
Secure Sense LAB
인문・사회
공학
SS LAB의 과제는 지능형 CCTV 앱 서비스의 개발 및 배포입니다. 개발중인 서비스의 이름은 '포근한 집'으로, 외부인의 이상행동을 탐지하고, 감정을 분석하여 사용자에게 알림과 동시에 사전 조치를 취할 수 있도록 돕는 서비스입니다. 현재 프로토타입은 제작이 된 상태입니다. SS LAB은 세 가지 핵심 활동을 합니다. 먼저 1) Home Security 과제를 수행할 수 있는 모델을 실험하고, 2) 만들어진 프로토타입을 개선합니다. 3) 서비스가 완성이 되면, 플레이스토어 및 앱스토어에 배포하여 피드백을 반영하여 서비스를 고도화하는 활동을 진행합니다. 이번 랩 기간동안은 Home Security 모델 실험을 중점적으로 진행하여 양질의 결과를 도출할 계획입니다.
Quantum Computing LAB
공학
양자컴퓨팅의 원리를 이해하고 핸즈온으로 다양한 양자알고리즘 코딩을 진핼할 예정입니다. 기본적인 양자 알고리즘 및 최적화 알고리즘을 코딩하고 가능하다면 논문까지 publish하는것을 목표로 하는 랩입니다. 아래의 활동 계획은 예상 계획이며 랩원들의 동의하에 수정될 수 있습니다.
PERSONA LAB
공학
Persona LAB에서는 NLP 모델이 특정 인물/캐릭터처럼 말할 수 있는 AI에 대해 연구해보고자 합니다. 최근 GPT를 넘어서는 Character.AI와 같이 유명인과 대화하는 서비스는 많은 사람들이 꿈꾸는 서비스라고 생각합니다. 'Persona LAB에서는 이러한 모델을 어떻게 효율적으로 학습할 수 있을지'를 중점으로 연구하고자 합니다. 그와 관련돼서 PERSONA LAB은 2가지 팀으로 랩을 운영합니다. Paper를 목적으로 Academic한 Research를 하는 Research 팀과 Project를 목적으로 Academic한 목적보다는 하고 싶은 project를 정해서 함께 구현하는 Engineering 팀으로 이루어져 있습니다. Research 팀의 Question Mark 1. LLM의 MBTI는 무엇일까? 다른 MBTI를 갖도록 만들 수 있을까? 2. LLM의 어떤 personality를 갖고 있는지 어떻게 평가하고 이끌어낼 수 있을까? 3. LLM의 personality 별로 특정 Task에서 우위를 갖는 personality가 있을까?와 같은 질문들을 바탕으로 연구를 시작하는 단계입니다. 이후 LLM의 personality에서 나아가 paper를 위한 research 보다는 application적인 관점에서 아래와 같은 연구도 진행할 예정입니다. 1. LLM 전체를 fine-tuning하고, 각 Character 별 AI를 모두 별도로 운용하는 것은 자원이 비효율적이지 않을까? 2. 다양한 Character를 하나의 LLM이 커버하는 것이 가능할까? 2-1. 이 와 비례해서 모델의 크기가 커진다면 오히려 비효율적일 수 있지 않을까? Engineering 팀은 이번에 추가 모집하는 분들 + 기존 랩원 분들이 모여 새롭게 만들어지는 팀입니다! Project 목표를 함께 정하고 진행할 예정입니다. + Research팀과 Engineering 팀 두 팀 모두에 소속 되어 진행해도 됩니다! 지원시에 희망하시는 팀을 기재해주세요. + Engineering 팀은 NLP 이외에도 video, voice, multi-modal을 진행해 볼 의향도 있기에 다양한 background를 가진 분들을 환영합니다.

오름캠프

커뮤니티 기반의 성장형 SW/AI 교육 플랫폼에서 함께 성장해요!

블로그

SW/AI 최신 기술, 교육, 문화 등 다채로운 이야기와 경험을 함께 나눠요!
회귀의 오류 지표 알아보기
모두의연구소
머신러닝을 사용한 회귀 문제에서 모델의 성능을 평가하기 위해 다양한 지표가 사용됩니다. 그 중에서도 MAE(Mean Absolute Error), MSE(Mean Squared Error), 그리고 RMSE(Root Mean Squared Error)는 가장 널리 사용되는 지표입니다.
모두의연구소
회귀의 오류 지표 알아보기
BLEU : 기계번역에서 많이 사용하는 지표
인공지능
기계번역에서 많이 사용하고 있는 지표중 하나인 BLEU 스코어는 간단한 수학적인 연산만으로도 기계번역 품질을 평가할 수 있습니다. 물론 몇가지 한계점은 존재하긴 하지만 간편하게 사용할 수 있다는 점에서 아직까지도 많은 사랑을 받고 있습니다.
인공지능
BLEU : 기계번역에서 많이 사용하는 지표
LLM, 인공지능의 미래를 이끌다 : 챗GPT를 넘어선 새로운 가능성
인공지능
챗GPT만 알고 있었다면 이제 LLM의 세계로! 생성형 AI, LLM, 챗GPT의 기본 개념, LLM의 핵심 기술인 딥러닝과 트랜스포머, LLM의 활용 방법과 미래 전망까지, 흥미진진한 이야기 속으로 떠나보아요.
인공지능
LLM, 인공지능의 미래를 이끌다 : 챗GPT를 넘어선 새로운 가능성
컴퓨터 비전에서의 Receptive Field와 YOLO
인공지능
컴퓨터 비전(Computer Vision)은 인공지능의 한 분야로, 컴퓨터가 이미지나 동영상을 이해하고 해석할 수 있도록 하는 기술입니다. 컴퓨터 비전 분야에는 이미지 분류(Image Classification), 객체 감지(Object Detection), 의미론적 분할(Semantic Segmentation) 등 다양한 문제들이 연구되고 있습니다. 이 중에서도 YOLO(You Only Look Once)는 객체 감지 분야에서 혁신적인 아이디어를 제시하며 발표 당시 큰 주목을 받았고 발전에 발전을 거듭하고 있습니다.
인공지능
컴퓨터 비전에서의 Receptive Field와 YOLO

한 주의 시작을
모두레터와 함께해요

모두의연구소가 엄선한 AI 소식을 싣고,
매주 월요일 메일함으로 살포시 찾아갑니다.
모두레터