본문 바로가기

AI/딥러닝24

[AI 부트캠프] DAY 99 - 트랙학습 CV 13 [오늘의 일지] 프로젝트 OT 및 Transformer 특강 [상세 내용] Transformer - Transformer는 자연어 처리 및 기타 시퀀스 기반 작업에 대한 혁신적인 딥러닝 아키텍처로, 2017년에 발표된 논문 "Attention is All You Need"에서 처음 소개되었습니다. 이 아키텍처는 기존의 순환 신경망(RNN)이나 장단기 메모리(LSTM)와 같은 기존의 시퀀스 모델에 비해 효과적으로 더 긴 범위의 의존 관계를 학습할 수 있는 특징을 가지고 있습니다. 원리 - ransformer)는 어텐션 메커니즘(Attention Mechanism)을 기반으로 하는 딥러닝 아키텍처로, 주로 자연어 처리 작업에 사용됩니다. 트랜스포머의 핵심 아이디어는 순환 신경망(RNN)이나 장단기 메모리(L.. 2023. 12. 9.
[AI 부트캠프] DAY 98 - 트랙학습 CV 12 [오늘의 일지] 트랙학습 녹화 강의 - Few-shot Learning, Meta-learing [상세 내용] Few-shot Learning - Few-shot Learning은 기계 학습의 한 분야로, 모델이 매우 적은 양의 예제 데이터로도 새로운 작업을 학습하고 수행할 수 있도록 하는 기술을 다룹니다. 일반적으로 기계 학습 모델은 많은 양의 훈련 데이터가 필요하며, 이 데이터를 사용하여 모델이 일반적인 패턴과 특징을 학습하게 됩니다. 그러나 Few-shot Learning에서는 매우 제한된 양의 훈련 데이터만 사용할 수 있습니다. 이러한 상황에서 모델은 새로운 작업을 학습하기 위해 몇 개의 (일반적으로는 1개에서 10개 사이) 예제만을 사용합니다. 이것은 현실 세계에서 많은 작업이 적은 양의 레이블.. 2023. 12. 8.
[AI 부트캠프] DAY 97 - 트랙학습 CV 11 [오늘의 일지] 트랙학습 녹화 강의 - Data augmentation [상세 내용] Data augmentation - Data augmentation는 이미지, 텍스트, 음성 등 다양한 데이터 유형에서 적용될 수 있습니다. 이미지의 경우, 회전, 반전, 크기 조절, 확대/축소, 색상 조절 등의 변형을 통해 새로운 학습 샘플을 생성합니다. 텍스트의 경우, 문장 구조 변경, 동의어 대체, 문법 수정 등이 사용될 수 있습니다. 이러한 다양한 변형을 통해 모델은 더 많은 패턴과 다양성을 학습하게 되며, 실제 상황에서의 성능을 향상시킬 수 있습니다. 데이터 증강은 특히 작은 규모의 데이터셋에서 유용하며, 과적합(overfitting)을 방지하고 모델의 일반화 성능을 개선하는 데 도움이 됩니다. 방법 이미지 데.. 2023. 12. 7.
[AI 부트캠프] DAY 96 - 트랙학습 CV 10 [오늘의 일지] 트랙학습 녹화 강의 - Object Detection(One-Stage Detection) [상세 내용] Object Detection(One-Stage Detection) - One-Stage Detection은 객체 감지(Object Detection) 작업을 수행하는 딥러닝 모델 아키텍처 중 하나로, 객체의 위치와 클래스를 한 번에 예측하는 방식입니다. 이러한 모델은 여러 개의 bounding box와 클래스 확률을 한 번에 예측하며, 여러 객체가 한 이미지 내에 존재하는 경우에도 효과적으로 처리할 수 있습니다. 대표적인 One-Stage Detection 모델로는 YOLO (You Only Look Once)와 SSD (Single Shot Multibox Detector)가 있습.. 2023. 12. 6.
반응형