본문 바로가기

분류 전체보기192

[AI 부트캠프] DAY 101 - CV 프로젝트 2 [오늘의 일지] 프로젝트 - 영상 데이터 분석 [상세 내용] 분석 전 간단 EDA - 영상을 분석 전에 어제 데이터 설명에서 나와있던 표형식으로 train 테이블을 만들어서 각 피쳐들의 비율을 간단하게 그래프로 정리해 보았습니다. 확실하게 사고 나지 않은 상황이 많았습니다. 영상 데이터 분석 분석 방법 - 이번 프로젝트에서 제가 EDA 파트를 담당하게 되어서 전체 train 데이터 영상 2697개를 하나하나 보면서 분석했습니다. 사실 이 방법이 무모하긴 해도 가장 확실한 방법이라 전부 다 보면서 분석했습니다. 처음에는 아래와 같이 5초짜리 영상을 50 프레임의 이미지로 바꿔두고 한눈에 보려고 했는데 생각보다 불편한 부분이 많아서 그냥 영상을 보는 것으로 결정했습니다. [마무리] 오늘은 프로젝트 과정에서 .. 2023. 12. 13.
[AI 부트캠프] DAY 100 - CV 프로젝트 1 [오늘의 일지] 프로젝트 설명 [상세 내용] 프로젝트 설명 주제 - 조원들이 서로 협의하에 동의 후 선정하게 되었습니다. 데이콘에서 지난 2월쯤 열렸던 자동차 충돌 분석 경진 대회인데 CV 주제로 다루기에 매우 매력적인 주제라 선정하게 되었습니다. 아래의 링크에 자세하게 나와 있습니다. 제1회 코스포 x 데이콘 자동차 충돌 분석 AI경진대회(채용 연계형) - DACON 분석시각화 대회 코드 공유 게시물은 내용 확인 후 좋아요(투표) 가능합니다. dacon.io 데이터 종류 - 데이터의 종류는 지금까지는 다뤄본 적 없는 영상 데이터입니다. 그래서 아직 시작하는 단계인데 하나부터 열까지 생소한 게 많습니다. 그래도 요즘같이 빠르게 발전하는 시대에 영상 데이터를 다뤄보는 것이 더 도움이 될 거 같다는 생각이 .. 2023. 12. 12.
[AI 부트캠프] DAY 99 - 트랙학습 CV 13 [오늘의 일지] 프로젝트 OT 및 Transformer 특강 [상세 내용] Transformer - Transformer는 자연어 처리 및 기타 시퀀스 기반 작업에 대한 혁신적인 딥러닝 아키텍처로, 2017년에 발표된 논문 "Attention is All You Need"에서 처음 소개되었습니다. 이 아키텍처는 기존의 순환 신경망(RNN)이나 장단기 메모리(LSTM)와 같은 기존의 시퀀스 모델에 비해 효과적으로 더 긴 범위의 의존 관계를 학습할 수 있는 특징을 가지고 있습니다. 원리 - ransformer)는 어텐션 메커니즘(Attention Mechanism)을 기반으로 하는 딥러닝 아키텍처로, 주로 자연어 처리 작업에 사용됩니다. 트랜스포머의 핵심 아이디어는 순환 신경망(RNN)이나 장단기 메모리(L.. 2023. 12. 9.
[AI 부트캠프] DAY 98 - 트랙학습 CV 12 [오늘의 일지] 트랙학습 녹화 강의 - Few-shot Learning, Meta-learing [상세 내용] Few-shot Learning - Few-shot Learning은 기계 학습의 한 분야로, 모델이 매우 적은 양의 예제 데이터로도 새로운 작업을 학습하고 수행할 수 있도록 하는 기술을 다룹니다. 일반적으로 기계 학습 모델은 많은 양의 훈련 데이터가 필요하며, 이 데이터를 사용하여 모델이 일반적인 패턴과 특징을 학습하게 됩니다. 그러나 Few-shot Learning에서는 매우 제한된 양의 훈련 데이터만 사용할 수 있습니다. 이러한 상황에서 모델은 새로운 작업을 학습하기 위해 몇 개의 (일반적으로는 1개에서 10개 사이) 예제만을 사용합니다. 이것은 현실 세계에서 많은 작업이 적은 양의 레이블.. 2023. 12. 8.
반응형