본문 바로가기
AI/AI 부트캠프

[AI 부트캠프] DAY 103 - CV 프로젝트 4

by HOHHOH 2023. 12. 15.

[오늘의 일지]

프로젝트 - 추출한 이미지 정제 및 기준 설정

[상세 내용]

추출한 이미지 정제 및 기준 설정

회의 정리

- 영상 데이터를 분석한 결과를 토대로 새로운 기준을 만들어서 모델이 학습하기 위해서 최적의 조건을 만들어 주는 작업을 해야겠다고 생각했습니다.

 

사고 장면 위한 구간 설정

- 제가 모든 영상을 보면서 분석한 결과 5초짜리 영상의 앞에 1초에서 2초까지는 사고 영상이든 사고 영상이 아니든 절대로 사고와 관련된 장면은 찾아볼 수 없었습니다. 그걸 기준으로 하여 처음에는 1.2초까지 삭제를 하고 나머지 뒤에 영상만 이미지화해서 사용하기로 했는데 멘토님과의 상담을 통해서 알게 된 것이 사고 영상으로 라벨링이 되어있는 영상이라면 이미지화된 부분이 사고 장면 비율이 높을수록 모델이 학습하기에 좋다고 조언을 해주셨습니다. 그래서 조원분들과 회의를 통해서 그냥 영상의 반을 날리기로 결정을 했습니다.

 

학습 이미지 최소화하기

- 기존에 모델의 아키텍처를 담당했던 조원분과 대회를 했을 때 이미지 데이터가 너무 많아서 학습하는데 시간도 오래 걸리고 비효율적이라는 내용을 많이 다뤘습니다. 그래서 위에서 정리했듯이 5초 영상 중에 앞에 의미 없는 반을 날렸는데 그래도 이미지가 많다고 느껴져서 뒤에 영상의 프레임 단위도 반으로 줄이기로 결정했습니다. 정리하자면 뒤에 2.5초를 이미지화하면 25장이 나오는데 그걸 또 반으로 줄여서 0.2초당 한 프레임으로 가져와서 이미지화를 하기로 결정을 한 것입니다. 그렇게 되면 최종적으로 대략 한 영상당 12 프레임의 이미지가 생성되어 학습을 하게 되는 것입니다.

 

모델 선정 

- 우선 앞에서도 가장 중요하게 생각한 게 이미지 데이터가 너무 많다는 것이었습니다. 그래서 회의를 통해서 모델을 두 가지로 사용해서 처음에 사고 발생 유무로 1차적으로 라벨링을 생성해서 걸러준 뒤에 사고가 난 데이터만을 이용해서 다시 학습 모델을 만들어서 나머지 라벨링을 마무리하는 것으로 결정이 되었습니다. 이렇게 되면 전체 영상의 60퍼센트를 차지하던 비사고 영상을 거를 수 있게 되는 것입니다. 

 

전처리 최종 정리

- 사고 유무 모델로 처음에 비사고 데이터를 정제합니다. 그렇게 되면 전체 데이터의 60프로를 제외하고 학습할 수 있는 상황이 됩니다. 그런 뒤 영상 데이터의 앞에 의미 없는 2.5초를 날리고 뒤에 사고 관련 부분이 많은 2.5를 살립니다. 마지막으로 2.5초의 영상 데이터를 0.2 프레임 단위만을 사용해서 이미지화하면 최종적으로 한 영상당 12 프레임의 이미지가 생성되어 학습에 사용하게 됩니다.

[마무리]

 오늘은 분석한 영상을 가지고 어떤 방향으로 학습 데이터를 가지고 가야 할지 정리해 보았습니다. 어느 정도 기준이 정리가 되어서 이제는 데이터 핸들링 코드를 완성한 뒤에 모델로 학습을 하면 될 거 같습니다. 근데 모델 아키텍처 부분이 생각보다 배우지 않은 것을 사용해야 돼서 난항이 예상됩니다. 프로젝트를 잘 마무리하기 위해서 끝까지 최선을 다해서 도와야 될 거 같습니다.

반응형

댓글