본문 바로가기

BOOSTCAMP AI TECH41

[BOOSTCAMP AI TECH] 34일차_Instance/Panoptic segmentation Instance segmentation -물체의 class뿐 아니라 같은 class의 각 객체까지 식별 가능한 모델 Mask R-CNN -R-CNN과 구조 자체는 비슷하다. -다만 차이점으로 RoI Align이라는 풀링 레이어를 제안했다. -R-CNN의 RoI 풀링은 정수 좌표에서만 특징을 추출할 수 있었다. -하지만 RoI Align은 보간법을 통해 정교화된 subpixel (소수점 픽셀 레벨)의 풀링을 지원한다. -즉, 소수 좌표에서도 특징을 추출할 수 있게 되었다. -이를 통재 정교화된 특징을 추출할 수 있게 되었고 성능이 향상되었다. -기존 Faster R-CNN에서는 풀링된 특징 위에 올라가있던 헤더가 두 개였다. -Mask R-CNN에서는 기존의 헤더 옆에 Mask branch를 추가했다. -.. 2021. 3. 11.
[BOOSTCAMP AI TECH] 33일차_Object Detection, CNN Visualization Object Detection (객체 검출) -Semantic segmentation : 픽셀 단위 객체 종류 인식 -Instance segmentation : 객체를 보다 세분화하여 인식 -Panoptic segmentation : Instance segmentation과 같이 객체를 보다 세분화하여 인식 *즉, Semantic은 class를 구분하고, 나머지는 객체를 구분한다. -Object detection은 Classification + Box localization이다. -즉, 일반 인식보다 조금 더 고차원으로 객체의 분류와 함께 객체의 위치인 Box 좌표(좌상단, 우하단)을 찾아낸다. -Object Detection은 크게 Two-stage와 Single-stage 방법으로 분류할 수 있다. .. 2021. 3. 10.
[BOOSTCAMP AI TECH] 32일차 강의 목록 - - 요약 강의 피어세션 학습정리 깊은 네트워크의 문제점 1) 경사도 손실 및 폭주 2) 계산 복잡도 증가 3) Degradation 문제 *의외로 오버피팅은 잘 일어나지 않는다. GoogleNet -인셉션 모듈이라는 구조를 통해 하나의 레이어에서 다양한 크기의 컨볼루션 필터를 사용, 여러 측면에서 특징을 파악한다. -즉 네트워크를 깊이를 확장하는 것이 아니라 수평으로 확장한다. -그런데 한 층에서 여러 필터를 사용하면 계산복잡도가 증가한다. -이를 방지하기 위해 1*1 컨볼루션을 통해 차원을 줄여준다. (보틀넥) -경사도 손실 문제의 방지를 위해 중간중간 auxiliary classifier을 도입한다. -Auxiliary classifier는 중간 중간 loss를 측정하고 역전파 과정 중.. 2021. 3. 9.
[BOOSTCAMP AI TECH] 31일차_Image classification 강의 목록 - Image Classification 1 - Annotation data efficient learning 요약 강의 Computer Vision에 대한 전반적인 설명과, CV의 대표적인 작업인 분류에 대한 설명을 들었다. 또한 적은 수의 데이터로 효율적으로 학습을 하는 방법을 이해했으며, VGGNet을 활용한 구현 과제를 수행했다. 피어세션 학습정리 Computer Graphics : 분석한 정보를 이용해 장면에 해당하는 이미지나 3D 신을 재구성한 것 (Rendering) Computer Vision : 컴퓨터 그래픽스가 하는 일을 반대로 하는 것. 즉, 시각적 데이터에서 representation을 추출하는 일. *Interpolation = representation = 사물을 보고.. 2021. 3. 8.
[BOOSTCAMP AI TECH] 25일차_ GNN 강의 목록 - 그래프 신경망이란 무엇일까? (기본) - 그래프 신경망이란 무엇일까? (심화) 요약 강의 피어세션 학습정리 정점 표현 학습 그래프의 정점들을 벡터의 형태로 표현하는 것 정점 임베딩 (Node Embedding)이라고도 부른다. 그래프를 입력으로 받아 벡터 표현 (정점 임베딩)을 출력으로 내준다. 그래프에서의 정점간 유사도를 임베딩 공간에서도 보존하는 것을 목표로 한다. 그래프에서의 두 정점간 유사도는 인접성, 거리, 경로, 중첩, 임의보행 기반 접근법으로 측정할 수 있다. 이러한 정점 임베딩 방법들은 변환식 (Transductive) 방법이다. 변환식 방법은 학습의 결과로 정점의 임베딩 자체를 얻는다. 출력으로 임베딩 자체를 얻는 임베딩 방법은 여러 한계를 갖는다. 학습이 진행된 이후 추가.. 2021. 2. 26.
[BOOSTCAMP AI TECH] 24일차_정점 표현 & 추천 시스템 (심화) 강의 목록 - 그래프의 정점을 어떻게 벡터로 표현할까? - 그래프를 추천시스템에 어떻게 활용할까? 요약 강의 그래프의 정점을 벡터로 표현하는 법과, 추천 시스템에 대해 학습했다. 피어세션 어제의 학습을 복습했고, GRU를 활용한 문장 제작 인공지능을 연습했다. 학습정리 정점 표현 학습 그래프의 정점들을 벡터의 형태로 표현하는 것 정점 표현 학습은 간단히 정점 임베딩 (Node Embedding) 이라고 부른다. 정점 임베딩은 벡터 형태의 표현 그 자체를 의미하며, 정점이 표현되는 벡터 공간을 임베딩이라고 부른다. 정점 표현 학습이란 그래프의 정점들을 벡터의 형태로 표현하는 것 정점 표현 학습의 입력은 그래프이다. 주어진 그래프의 각 정정 u에 대한 임베딩, 즉 벡터 표현 z(u)가 정점 임베딩의 출력이다.. 2021. 2. 25.
[BOOSTCAMP AI TECH] 23일차_군집 탑색 & 추천 시스템 강의 목록 - 그래프의 구조를 어떻게 분석할까? - 그래프를 추천시스템에 어떻게 활용할까? (기본) - UV 분해를 활용한 추천 시스템 구현 요약 강의 피어세션 학습정리 군집 다음 조건들을 만족하는 정점들의 집합이다. 집합에 속하는 정점 사이에는 많은 간선이 존재한다. 집합에 속하는 정점과 그렇지 않은 정점 사이에는 적은 수의 간선이 존재한다. 군집 탐색 (Community Detection) 그래프를 여러 군집으로 잘 나누는 문제를 군집 탐색이라고 한다. 보통 각 정점이 한 개의 군집에 속하도록 군집을 나눈다. 비지도 기계학습 문제인 클러스터링과 상당히 유사하다. *클러스터링 = 군집화 군집 구조의 통계적 유의성과 군집성 배치 모형 성공적인 군집 탐색의 정의를 위해 비교하는 대상 그래프에서 각 정점의 .. 2021. 2. 24.
[BOOSTCAMP AI TECH] 22일차_페이지랭크 & 전파 모델 강의 목록 - 검색 엔진에서는 그래프를 어떻게 활용할까? - 그래프를 바이럴 마케팅에서 어떻게 활용할까? 요약 강의 피어세션 학습정리 웹과 그래프 웹은 웹 페이지와 하이퍼링크로 구성된 거대한 방향성 있는 그래프이다. 웹 페이지는 정점에 해당하며, 하이퍼링크는 해당 웹페이지에서 나가는 간선에 해당한다. 단, 웹 페이지는 추가적으로 키워드 정보를 포함한다. 구글 이전의 검색 엔진은 웹을 거대한 디렉토리 구조로 정리하려 했다. 하지만 웹 페이지의 수가 증가함에 따라 카테고리의 수와 깊이가 무한정 커졌다. 또한 카테고리 구분이 모호한 경우가 많아 저장과 검색의 어려움이 있었다. 그래서 키워드에 의존한 검색 엔진을 구축했다. 하지만 이 방식은 악의적인 웹페이지에 취약하다는 단점이 있다. 예를 들어 불법 사이트가 .. 2021. 2. 23.
[BOOSTCAMP AI TECH] 21일차_그래프 이론 기초 & 그래프 패턴 강의 목록 - 그래프란 무엇이고 왜 중요할까? - 실제 그래프는 어떻게 생겼을까? 요약 강의 AI를 위한 그래프를 배우기 위해 기초적인 지식들을 학습했다. 피어세션 지난 주 학습을 복습하는 시간을 가졌다. 학습정리 그래프 (네트워크) 정점 집합과 간선 집합으로 이루어진 수학적 구조 하나의 간선은 두 개의 정점으로 연결한다. 모든 정점 쌍이 반드시 간선으로 직접 연결되는 것은 아니다. 정점 = Vertex, Node / 간선 = Edge, Link 그래프가 중요한 이유? 우리 주변에는 많은 복잡계 (Complex System)가 존재한다. 사회, 통신 시스템, 정보, 지식, 뇌, 신체 역시 모두 복잡계이다. 이러한 복잡계는 구성 요소 간 복잡한 상호작용을 한다는 특성을 가지고 있다. 그래프는 복잡계를 표현.. 2021. 2. 22.
[BOOSTCAMP AI TECH] 20일차_Self-supervised Pre-training Models 강의 목록 - Self_supervised Pre-training Models : GPT-1, BERT - Advanced Self-supervised Pre-training Models 요약 강의 피어세션 학습정리 Pre-trained 모델의 최신 발전 동향 Transformer와 Self-attention block은 범용적인 인코더와 디코더로써의 역할을 잘 수행해냈다. 그래서 자연어 처리 뿐 아니라 다른 분야에서도 활발히 활용 중에 있다. Transformer은 6개 정도의 self-attention block을 쌓아서 사용했는데, 최근에는 보다 많은 블럭들을 쌓아서 대규모 데이터의 학습 용도로 사용할 수 있는 Self-supervised Learning 프레임워크으로 학습한 후 다양한 작업에 대해.. 2021. 2. 19.
[BOOSTCAMP AI TECH] 19일차_Transformer 강의 목록 Transformer1 Transformer2 요약 강의 Transformer 관련 학습 진행 피어세션 어제자 학습 내용 복습 학습정리 Transformer LSTM이나 GRU의 성능을 개선한 Seq2Seq 모델. 자연어를 입력받아 자연어를 출력하는 데 사용되는 모델로, 2017년 'Attention is all you need'에서 나온 모델이다. 기존의 인코더-디코더 구조를 따르면서도, 어텐션만으로 이를 구현했다. 즉, 어텐션을 기존의 RNN을 보조하기 위한 용도가 아닌, 인코더, 디코더의 역할로 사용한다. N개의 인코더와 N개의 디코더로 구성된다 *Query : t 시점의 디코더 셀에서의 은닉 상태. 다른 INPUT 데이터와의 유사도 판별 기준 *Keys : 모든 시점의 인코더 셀의 은닉.. 2021. 2. 18.
[BOOSTCAMP AI TECH] 18일차_Seq2Seq with attention, BLEU 강의 목록 - Sequence to Sequence with Attention - Beam Search and BLEU 요약 강의 Seq2Seq 모델을 구현하기 위해 인코더와 디코더, 그리고 attention 모델에 대해 학습했다. 그리고 모델의 평가 지표인 BELU에 대해 학습했다. 피어세션 어제 학습한 내용을 복습하는 시간을 가졌다. 학습정리 Seq2Seq Model RNN의 구조 중 many-to-many 형태에 속한다. (입출력이 모두 시퀀스) many-to-many 중 모든 입력을 읽은 후 하나씩 출력을 하는 모델 인코더와 디코더로 구성되어 있다. 인코더 : 입력문장을 순차적으로 읽어들이는 RNN 모델 디코더 : 출력문장을 순차적으로 생성하는 RNN 모델 인코더와 디코더는 서로의 파라미터를 공유.. 2021. 2. 17.