빠르게 변하는 AI 트렌드를 쉽게 접하고 싶나요?

지금 모두레터 구독하기
스터디 모집

AI시대, 어떻게 내일을 준비할지 모르겠다면?

가장 빠르게 최신기술을 공부하는 곳,
풀잎스쿨

함께하는 시너지를 느껴보세요.

아이펠 모집중
NEW 2024년 업데이트 커리큘럼
AI 개발자 커리어의 시작, 이거 안 배우면 어려워요!
비전공자도 할 수 있는 AI학교 아이펠
눈높이 맞춤 과정으로 [AI 논문 / 멀티모달 / MLOps]까지 한큐에!
AI 첫걸음 시작하기
아이펠 모집중
NEW 2024년 업데이트 커리큘럼
AI 언제까지 찍먹만 하실건가요?
AI를 배워봤다면 더 더욱 AI학교 아이펠에서 배우세요.
겉핥기식의 AI학습이 아닌 더 DEEP한 AI 교육, 지금 바로 시작하세요!
AI 레벨업 하러가기
지식과 노하우를 공유하는 세미나에 참여해봐요!
하고 싶은 프로젝트, 대회, 논문, 연구 등을 진행해봐요!
NVIDIA - NLP Forge LAB
공학
Nvidia에서 제공하는 여러 오픈소스들을 분석해보고 이를 이용해서 한국어 LLM 기반의 공공 서비스를 만들어보는 랩입니다. Triton, Megatron, Nemo, TensorRT 등을 다루어보고, 간단한 서비스 기획과 서빙 아키텍쳐 코드들도 직접 작성해보려고 합니다.
NVIDIA - Data Engineering with RAPIDS LAB
공학
본 랩은 NVIDIA에서 제공하고 있는 RAPIDS를 한국 데이터 과학자 분들에게 알리고, 이를 응용할 수 있는 방안에 대해 탐구 및 경험해 보는 것을 목표로 합니다. RAPIDS 내의 Cupy, Cudf, Cuml을 주로 다룰 예정이며, 이 이외에도 Apache Arrow, Blazing SQL, CuXFilter, Ploty, Ploty-Dash등 필요에 따라 다양한 라이브러리들을 살펴 봅니다. 마지막으로 이런 RAPIDS의 여러 라이브러리를 활용하여, Data Engineering 과정 중 GPU를 사용한 Extract, Transform, Load(ETL) 및 Create, Read, Update, Delete(CRUD)등의 Pipeline 최적화 및 이를 사용한 GTC 포스터 세션 혹은 워크숍 세션을 참가해보는 것을 목표로 합니다.(해외에서 진행되는 학회이므로 이는 추후에 다른 학회 혹은 저널을 타겟으로 해도 무방합니다.) RAPIDS LINK : https://rapids.ai/ RAPIDS NGC : https://catalog.ngc.nvidia.com/orgs/nvidia/teams/rapidsai/containers/base
NVIDIA - Foundation Models Lab
공학
LAB의 비전과 목표 본 랩은 NVIDIA가 만들거나 서비스 하고있는 Vision Foundation 모델들을 심도 있게 탐구하고, 이러한 모델들을 NVIDIA 자체환경 혹은 다른 방법을 통해 적용해 보는 것을 목표로 합니다. Stable Diffusion, Llama, CLIP, metaCLIP, SAM, Llava, Osprey, Honeybee, Ferret, InternLM 등 다양한 Foundation이자 mLLM 모델을 포괄적으로 다루며, 이를 통해 추후에는 downstream에서의 적용 및 논문 작성까지도 진행해보려고 합니다. (최대한 최신 워크 위주로 살펴볼 것 같습니다.)
LLM Expermental Lab (LLM 실험 연구실)
인문・사회
자연과학
공학
예술
의학
기타
👀챗GPT로 대표되는 생성AI 시대에 🔎LLM 실험연구실은 보다 실질적인 "활용"에 집중해요. 여러분들은 챗GPT에게 "천천히 심호흡을 하고 차근차근 문제를 풀어봐" 라고 할 때, 정확도가 두 배 이상 향상되는 걸 알고 계셨나요? (34% -> 80.2%) 단순해보이는 이와 같은 실험 결과는 놀랍게도 구글의 딥마인드에서 발표한 논문이어요. [1] 💬챗GPT 같은 LLM 연구는 엄청난 GPU 파워를 가진 OpenAI, MS, Google 등에서만 진행할 수 있는 연구아니냐고요? 직접 LLM을 만드는 게 목표라면 그럴지도 모르지만 응용 연구에서는 그렇지 않아요. 풀고 싶은 문제와, 학습 시킬 수 있는 데이터, LLM 실험 환경만 갖춰진다면 누구나 할 수 있어요. LLM 실험연구방법은 실제 대학에서 재직중인 랩짱이 알려줄거에요. 데이터는 함께 모을 수 있어요. 풀고 싶은 문제가 있나요? LLM 실험연구실과 함께해요! 🤗 [1] Yang, C., Wang, X., Lu, Y., Liu, H., Le, Q. V., Zhou, D., & Chen, X. (2023). Large language models as optimizers. arXiv preprint arXiv:2309.03409.

오름캠프

커뮤니티 기반의 성장형 SW/AI 교육 플랫폼에서 함께 성장해요!

한 주의 시작을
모두레터와 함께해요

모두의연구소가 엄선한 AI 소식을 싣고,
매주 월요일 메일함으로 살포시 찾아갑니다.
모두레터