[공모전] Vision AI 최종 실험 개인 "연구" 블로그 (2)
·
4. [팀] 프로젝트 및 공모전/4-4 구조물 안정성 물리 추론 AI 경진대회(DACON)
2-Stage Pipeline의 이론적 기반, 실험 결과, 그리고 공모전 회고아래 블로그 상세 분석 개인 연구 블로그 1편도 있습니다. [공모전] Vision 시각화 검증 상세 분석 "개인 연구용" 블로그안녕하세요!!오늘은 지금 데이콘에서 진행중인 공모전에 대해서 제 주관적인 생각을 아주 많이 넣은(?) 연구용 블로그를 작성해보겠습니다. 이미 상위 랭킹에 속하긴 했지만 순위를 더 좁히고pak1010pak.tistory.com코랩 파일만 11번 버전 파일 생성, 로컬로도 몇 개의 파일들이 생성됐는 지 모르겠다. 처음엔 동기들과 가볍게 나가기로 했기에 욕심을 안 부렸지만 내 성격이 그게 안 되었나 보다. 오늘 결과 발표가 나왔는데 아쉽게 상위4% - 16등(전체 851명 중)에 머물렀지만, 내가 열심히 공부..
[공모전] Vision 시각화 검증 상세 분석 "개인 연구용" 블로그
·
4. [팀] 프로젝트 및 공모전/4-4 구조물 안정성 물리 추론 AI 경진대회(DACON)
안녕하세요!!오늘은 지금 데이콘에서 진행중인 공모전에 대해서 제 주관적인 생각을 아주 많이 넣은(?) 연구용 블로그를 작성해보겠습니다. 이미 상위 랭킹에 속하긴 했지만 순위를 더 좁히고 싶어서 영상 데이터부터 시각화 검증까지 다 뜯어보면서 분석해보는 중입니다.오늘 진행한 내용들에 대해서 정리해보도록 하겠습니다. 진행 상황 메모 블로그 참고: [DACON 공모전] 구조물 안정성 예측 대회: EVA-Giant Dual-View 모델과 Center Crop 추론 스터디 (2)Dacon 구조물 안정성 예측 대회에 참가하면서 겪은 시행착오, 모델 선택의 근거, 그리고 단순한 추론 전처리 변경 하나로 LogLoss 0.02117 → 0.01756을 달성한 과정을 기록합니다.1. 대회 개요와 문제 정pak1010pa..
[강화학습] "PPO" 알고리즘 핵심 이론 및 최신 RL 트렌드 정리
·
개념 정리 step2/강화 학습
PPO(Proximal Policy Optimization)는 강화학습에서 정책(Policy)을 안정적으로 업데이트하기 위해 제안된 정책 기반(Policy-based) 알고리즘입니다. 구현이 비교적 간단하면서도 안정성과 성능이 뛰어나 OpenAI Baselines, Stable-Baselines, RLlib 등 다양한 강화학습 프레임워크에서 기본 알고리즘으로 채택하고 있습니다.1. PPO (Proximal Policy Optimization)기존의 정책 경사(Policy Gradient) 방법은 정책을 한 번에 크게 업데이트할 경우 학습이 불안정해지는 치명적인 단점이 있었습니다. PPO는 정책이 이전 정책에서 너무 멀리 벗어나지 않도록 제한(Clip)하여 이 문제를 해결합니다.1.1 PPO가 등장한 이유..
[DACON 공모전] Dinov2_large 모델 분석 및 학습 진행 상황 스터디
·
4. [팀] 프로젝트 및 공모전/4-4 구조물 안정성 물리 추론 AI 경진대회(DACON)
오늘은 현재 진행중인 DACON 공모전에 대해 진행 상황 및 모델 분석에 대해서 정리해본다. 이번 dinov2_large pretrain은 이전 붕괴 구간과 달리 정상적으로 학습되고 있다고 판단할 수 있다.val logloss가 0.6852 -> 0.4227 -> 0.3529 -> 0.3165 -> 0.3091 -> ... -> 0.1606으로 전반적으로 하락val acc가 0.6219 -> 0.7910 -> 0.8365 -> 0.8565 -> 0.8668 -> ... -> 0.9422로 상승warmup이 끝난 뒤 즉시 붕괴하지 않고, 오히려 지속적으로 개선됨train acc와 val acc가 함께 상승하고 있어 현재 시점에서는 학습이 깨진 것이 아니라 표현 학습이 안정적으로 진행 중임1. 학습 진행 상..
[개인 공부] "배포" 기본 개념 정리(1)
·
3. 자습 & 메모(실전, 실습, 프로젝트)/3-3 배포 실전 공부
1. 배포(Deployment)의 기본 개념배포란 개발자의 PC에서만 동작하던 코드를, 24시간 인터넷에 연결되어 있는 '서버(Server)' 컴퓨터로 옮겨 실행함으로써 일반 사용자가 웹 브라우저나 앱을 통해 접근할 수 있게 만드는 모든 과정을 의미합니다.로컬 환경 (Local): 현재 개발에 사용한 내 PC 환경입니다. 내가 끄면 서버도 죽습니다.운영 환경 (Production): AWS, GCP, Vercel 등 클라우드 서비스에서 제공하는 서버 컴퓨터입니다. 24시간 무중단으로 실행되며 고정된 주소(IP 또는 도메인)를 갖습니다.배포의 핵심은 "내 컴퓨터에서 되던 것이 다른 컴퓨터(서버)에서도 똑같이, 멈추지 않고 돌아가게 만드는 것"입니다.2. Meat-A-Eye 프로젝트 배포 아키텍처의 이해블로..
[강화학습] 마르코프 결정 과정 MDP 정리 (MP, MRP, MDP)
·
개념 정리 step2/강화 학습
안녕하세요! 강화학습을 공부하다 보면 가장 먼저 마주치는 개념이 바로 MDP(Markov Decision Process)입니다. 이번 글에서는 MDP가 무엇인지, 그리고 그 근간이 되는 MP와 MRP부터 알아보겠습니다.1. Markov Decision Process (MDP)란?Markov Decision Process(MDP, 마르코프 결정 과정)는 의사결정을 포함한 확률적 모델입니다. 어떤 상태(State)에서 에이전트가 행동(Action)을 선택하면, 그에 따라 확률적으로 다음 상태로 전이되고 보상(Reward)을 받는 구조를 말합니다.MDP는 기본적으로 다음 5가지 요소로 구성됩니다.상태 (State, S)행동 (Action, A)전이 확률 (Transition Probability, P)보상 (..
[논문 리뷰] Grounding DINO: Marrying DINO with Grounded Pre-Training for Open-Set Object Detection
·
1. AI 논문 + 모델 분석/AI 논문 분석
안녕하세요! 오늘은 Grounding DINO의 논문 리뷰를 작성해 보도록 하겠습니다.💡 요약 (Abstract)본 논문은 Grounding DINO라는 Open-Set Object Detector를 제안합니다. 이 모델은 Transformer 기반의 Detector인 DINO를 Grounded Pre-Training과 결합하여, 카테고리 이름이나 Referring Expression(지시 표현)과 같은 사람의 언어 입력에 따라 임의의 객체를 탐지할 수 있도록 설계되었습니다.Open-Set Object Detection의 핵심은 Language를 Closed-Set Detector에 도입하여 Open-Set 개념 일반화(generalization)를 달성하는 것입니다.핵심 방법론: Tight Modal..
[프로젝트 회고] Meat-A-Eye: AI 기반 축산물 부위 인식 및 관리 플랫폼 개발기
·
4. [팀] 프로젝트 및 공모전/4-2 Meat-A-Eye
안녕하세요! 오늘은 국비과정 중간프로젝트 "Meat-A-Eye" 프로젝트를 발표까지 성공적으로 마무리를 하여 정리 블로그를 작성합니다.1. 프로젝트 개요 및 기획 배경온라인 육류 소비가 증가하고 1인 가구 및 자취생이 많아지면서, 소분해둔 고기의 부위(등심, 채끝, 목심 등)를 육안으로 구분하기 어려운 문제가 빈번하게 발생하고 있습니다. 이력 번호를 통해 조회할 수 있지만, 라벨의 작은 숫자를 일일이 입력하는 것은 사용자 경험 측면에서 매우 불편합니다. 또한 부위별 시세를 비교하기 위해 여러 사이트를 전전해야 하는 번거로움도 존재합니다.이러한 일상적인 불편함을 사진 한 장으로 해결하고자 MeatHub 팀(총 5명)은 "고기를 찍으면 부위가 보인다"는 의미를 담아 Meat-A-Eye 프로젝트를 시작했습니다..
[강화학습] 강화학습 기본 개념 정리
·
개념 정리 step2/강화 학습
1. 기계학습의 두 축: 지도학습과 강화학습기계학습(Machine Learning)은 학습 방식에 따라 여러 갈래로 나뉩니다. 그중 가장 대표적인 지도학습과, 최근 AI 발전의 핵심인 강화학습의 차이를 이해하는 것이 첫걸음입니다.지도학습 (Supervised Learning)지도학습은 '정답(Label)'이 포함된 데이터로 모델을 학습시키는 방식입니다. 입력 데이터 $X$와 그에 대응하는 정답 $Y$를 함께 제공하여, 모델이 $X \rightarrow Y$로 매핑하는 함수를 학습하도록 합니다.학습 방식: 모델의 예측값과 실제 정답 사이의 오차(Loss)를 계산하고, 이 오차를 최소화하는 방향으로 모델의 가중치를 업데이트합니다.대표 사례: 이미지 분류(개/고양이 판별), 스팸 메일 필터링, 부동산 가격 예..