
한 줄 소개
AI 에이전트를 활용하여 퀀트트레이딩을 진행합니다.
분야
ENGINEERING
목표 결과물
OPEN_SOURCE, PAPER
랩 소개
본 모임은 강화학습(RL) 기반 에이전트 개발을 핵심으로 하는 퀀트 트레이딩 오픈소스 커뮤니티입니다. 단순한 전략 공유나 수익 인증을 목표로 하지 않으며, 시장을 확률적·동역학적 시스템으로 해석하고 이를 학습 가능한 에이전트로 구현하는 것을 유일한 목표로 설정합니다. 가격 예측보다는 의사결정 과정, 보상 설계, 상태 공간 정의, 탐험과 수렴의 균형을 중심 문제로 다룹니다. 본 모임에서 다루는 트레이딩은 규칙 기반 매매가 아니라, 환경과 상호작용하며 정책을 갱신하는 에이전트의 학습 문제입니다. 스프레드 거래, 페어 트레이딩, 포트폴리오 리밸런싱 등 구조적으로 정의 가능한 문제를 우선 대상으로 삼으며, 마켓 마이크로스트럭처, 슬리피지, 거래 비용, 레짐 전환과 같은 현실 제약을 명시적으로 모델에 포함합니다. 백테스트 성능보다 재현성, 일반화 가능성, 실패 원인 분석을 우선 가치로 둡니다. 코드는 전면 오픈소스로 공개되며, 실험 설정, 데이터 처리 파이프라인, 환경 정의, 학습 로그까지 포함한 전체 연구 과정을 공유합니다. 개인의 비법이나 폐쇄적 우위를 지향하지 않고, 검증 가능한 지식 축적과 집단적 개선을 지향합니다. 본 모임은 ‘잘 맞춘 전략’을 만드는 집단이 아니라, 왜 실패했는지 설명할 수 있는 시스템을 만드는 집단입니다. 강화학습, 확률론, 제어 이론, 금융공학, 시스템 설계에 대한 최소한의 사고 능력을 전제로 하며, 감정적 매매, 단기 수익 집착, 근거 없는 낙관주의는 배제 대상입니다. 본 모임은 장기적으로 스스로 사고하고 검증할 수 있는 퀀트 에이전트를 구축하는 기술 공동체를 지향합니다.
운영 방식
본 모임은 연구 조직에 준하는 구조를 기본 전제로 운영됩니다. 친목이나 즉흥적인 아이디어 교환보다는, 명확한 목표와 산출물을 중심으로 한 협업을 지향합니다. 모든 활동은 결과로 남는 것을 원칙으로 하며, 각 결과물은 코드, 실험 결과, 문서 중 하나의 형태로 정리됩니다. 이를 통해 논의가 축적 가능한 지식으로 남도록 합니다. 운영의 기본 단위는 개인이 아닌 프로젝트입니다. 각 프로젝트는 문제 정의 문서, 트레이딩 환경 명세, 보상 함수 설계, 베이스라인 모델, 실험 로그를 필수적으로 포함합니다. 프로젝트는 공개 저장소에서 관리되며, 모든 변경 사항은 커밋과 리뷰 과정을 통해 기록됩니다. 말로만 전달되는 설명이나 개인적인 메모보다는, 누구나 다시 확인할 수 있는 형태의 자료를 지식으로 존중합니다. 의사결정 과정에서는 의견의 다수보다 검증 결과를 우선합니다. 설계에 대한 논의는 실험과 코드로 정리되며, 성능 개선에 대한 주장은 재현 가능한 결과를 통해 확인됩니다. 성과가 좋았던 경우뿐 아니라, 기대에 미치지 못한 실험이나 성능이 저하된 사례 또한 중요한 기록으로 다룹니다. 이를 통해 보다 현실적인 이해와 학습을 도모합니다. 참여자께서는 각자 역할을 맡아 지속적으로 기여하십니다. 환경 설계, 데이터 처리, 알고리즘 구현, 실험 자동화, 문서화 중 하나 이상의 영역을 책임지며, 기여 내역은 투명하게 기록됩니다. 이에 따라 프로젝트 접근 권한과 의사 표현 범위도 점진적으로 부여됩니다. 모임의 일정은 데모와 리뷰를 중심으로 구성됩니다. 정기적인 만남에서는 진행 상황 보고보다는 결과 검증과 코드 리뷰에 집중합니다. 추상적인 아이디어 제시나 전망 중심의 논의보다는, 실제 구현과 실험 결과를 바탕으로 한 대화를 지향합니다. 본 운영 방식의 목적은 단기적인 효율보다 장기적인 지식 축적에 있습니다. 개인의 역량 향상도 중요하게 여기지만, 그보다 시스템적으로 축적되는 연구 자산을 우선합니다. 구성원이 바뀌더라도 프로젝트와 지식이 지속될 수 있는 구조를 유지하는 것, 그것이
커리큘럼
1주차 — 문제 정의 및 목표 정렬: 강화학습 기반 트레이딩을 제어 문제로 정식화합니다.
2주차 — 데이터 파이프라인 구성: 실험 재현이 가능한 데이터 수집·전처리 구조를 구축합니다.
3주차 — 트레이딩 환경 구현: 거래 비용과 제약을 포함한 학습 환경을 구현합니다.
4주차 — 베이스라인 설정: 규칙 기반 및 랜덤 전략으로 비교 기준을 확립합니다.
5주차 — 상태 공간 설계: 관측 변수 구성과 차원 선택의 영향을 검증합니다.
6주차 — 보상 함수 설계: 손익과 안정성을 반영한 보상 구조를 비교합니다.
7주차 — RL 적용 I: 기본 알고리즘으로 학습 동작과 수렴 특성을 확인합니다.
8주차 — RL 적용 II: 정책 기반 및 연속 행동 접근을 확장합니다.
9주차 — 일반화 평가: 구간 분리와 레짐 변화에 따른 성능을 검증합니다.
10주차 — 실험 자동화: 시드 고정과 로깅으로 재현성을 강화합니다.
11주차 — 실패 분석: 성능 저하 원인을 구조적으로 정리합니다.
12주차 — 결과 공개: 코드와 문서를 포함한 전체 결과를 정리·공개합니다.
참여 요건
첫째, 본 모임의 성격을 명확히 이해하고 이에 동의하시는 분을 참여 대상으로 합니다. 본 모임은 수익 인증, 단기 성과, 투자 조언을 목적으로 하지 않으며, 강화학습을 활용한 의사결정 시스템을 연구 대상으로 다룹니다. 트레이딩을 확률적 환경에서의 제어 문제로 인식하고, 실험과 검증을 중심으로 접근하는 태도가 필요합니다. 둘째, 코드 기반 작업에 대한 기본적인 수용 능력이 요구됩니다. 특정 언어나 프레임워크에 대한 고급 숙련을 필수로 하지는 않으나, 구현된 결과를 코드와 로그로 남기고, 공개 저장소 기반 협업에 참여할 수 있는 수준의 경험 또는 학습 의지가 필요합니다. 구두 설명보다 기록과 재현을 중시하는 작업 방식에 거부감이 없어야 합니다. 셋째, 실패를 연구 과정의 일부로 받아들이는 태도를 중요하게 봅니다. 실험 결과가 기대에 미치지 못하거나 가설이 부정되는 상황을 개인의 역량 문제로 회피하지 않고, 분석 대상이자 공유 자산으로 다룰 수 있어야 합니다. 성공 사례뿐 아니라 실패 사례 역시 정식 결과물로 존중하는 문화에 동의하셔야 합니다. 넷째, 프로젝트 단위 협업에 대한 책임감을 요구합니다. 참여자는 환경 설계, 데이터 처리, 알고리즘 구현, 실험 자동화, 문서화 중 하나 이상의 역할을 지속적으로 맡게 되며, 정기적인 기여가 기대됩니다. 일시적인 관심이나 관찰자적 참여보다는, 일정 기간 동안 동일한 문제를 함께 다루는 참여 방식을 전제로 합니다. 다섯째, 일정 수준의 시간적 지속성이 필요합니다. 본 모임은 최소 12주 단위의 프로젝트를 기본 주기로 운영하며, 해당 기간 동안 꾸준히 참여 가능하신 분을 대상으로 합니다. 투입 시간의 절대량보다는, 예측 가능하고 지속적인 참여가 더 중요하게 고려됩니다. 본 참여 요건은, 연구 지향적 협업이 가능한 공통 기반을 마련하고, 구성원 모두가 축적되는 지식의 수혜자이자 기여자가 될 수 있는 환경을 유지하는 데 있습니다. 이러한 방향성에 공감하시는 분이라면, 충분히 본 모임의 참여 대상이 되실 수 있습니다.
사전 질문
현재 전공 또는 주된 연구·개발 분야와, 강화학습·퀀트 트레이딩에 관심을 갖게 된 계기를 간략히 작성해 주세요.
주로 사용하시는 프로그래밍 언어와, 실험 또는 프로젝트에서 코드 기반으로 결과를 구현해 보신 경험을 설명해 주세요.
강화학습을 예측 문제가 아닌 의사결정 문제로 볼 때, 그 차이를 어떻게 이해하고 계신지 서술해 주세요.
트레이딩 시스템의 성과를 평가할 때, 수익 외에 중요하다고 생각하시는 기준이나 지표가 있다면 함께 작성해 주세요.
과거 프로젝트나 실험에서 기대한 결과를 얻지 못했던 경험 한 가지를 선택하여, 원인 분석과 이후의 대응을 설명해 주세요.
본인의 가설이나 구현이 실험 결과를 통해 부정되었을 때, 이를 어떻게 받아들이고 정리해 오셨는지 서술해 주세요.
환경 설계, 데이터 처리, 알고리즘 구현, 실험 자동화, 문서화 중 지속적으로 기여 가능한 영역과, 12주 이상 참여 가능한지 작성해 주세요.
랩장 소개
윤지훈
Agent Quant Trading LAB
모임 기간
2026.03.07 - 2026.08.29
모임 일시
격주 토요일 10:30 ~ 12:30
장 소
모두의연구소 강남캠퍼스
모집 기간
2026.01.31 - 2026.02.28
모집 인원
5명
선발 방식
사전 질문 기반 심사 + 온라인 커피챗
