[CV] Parts-based Models & Deformable Part Model (DPM)
·
🤖 ai logbook
Parts-based Models Parts-based models은 object를 부분(part)의 집합으로 정의하는 object detection model의 일종이다 Parts-based models에서 part는 다음 두 가지 요인을 기반으로 모델링 된다. 1. Appearance : part의 모양, 색상, 질감 등과 같은 시각적 특성을 의미한다. part들의 외관은 다른 part들 및 배경과 구별하는 데 사용된다. 2. Spatial configuration : part들은 공간상에서 관계성을 가진다. part들의 공간 구성은 object의 전체적인 모양과 구조를 결정하는 데 사용된다. Deformable Part Model (DPM) 참고 : https://cs.brown.edu/people..
[CV] Object Detection & Statistical Template Approach(Dalal-Triggs Pedestrian Detector)
·
🤖 ai logbook
reference 더보기 https://wikidocs.net/book/6651 https://kikaben.com/object-detection-non-maximum-suppression/ General process of object detection Object Detection은 기본적으로 다음과 같은 Stage로 진행된다. Specify Object Model Statistical template in bounding box 객체가 이미지 내의 일부 (x,y,w,h)로 정의되며, bounding box 좌표에 대해 정의된 특징을 사용하는 객체 모델링 방법이다. 이 방법은 객체 검색에 초점을 맞추며, 객체와 배경을 빠르게 구별하는 template을 구축한다. 아래 이미지에서 자전거가 있다면 자전거..
베이즈 정리(Bayes’ theorem) & 마르코프 모델(Markov Models)
·
🤖 ai logbook
reference : https://wikidocs.net/book/6038 공부하다 보면 계속 등장하는데 계속 까먹어서; 정리 Bayes’ theoremBayes’ theorem은 두 확률 변수의 사전 확률과 사후 확률 사이의 관계를 나타내며,불확실성 하에서 의사 결정문제를 수학적으로 다룰 때 중요하게 이용된다.$a$ 일 때 $b$ 일 확률은 $b$ 일 때 $a$ 일 확률에 $b$ 의 확률을 곱한 것을 $a$의 확률로 나눈 것과 같다. $$P(b|a) = \frac{P(a|b)P(b)}{P(a)}$$ 예를 들어, 오전에 흐리면 오후에 비가 오는 확률인 $P(비∣흐림)$을 계산하고 싶다고 하자. 다음 정보에서 시작한다. 오후에 비가 온 날 중 80%는 오전부터 흐렸다. $P(흐림∣비)$오전에 흐린 날이 ..
[NLP/자연어처리/Python] koGPT2 ChatBot 실습
·
🤖 ai logbook
(PyTorch) koGPT2 ChatBot 참고 : https://wikidocs.net/158023 9-3. koGPT2 ChatBot 프로그래밍에 사용된 패키지들의 버전은 다음과 같다. * huggingface-hub 0.2.1 pypi_0 pypi *… wikidocs.net "PyTorch 딥러닝 챗봇" wikidocs의 koGPT2 챗봇 만들기 page를 따라해보며 공부한 내용을 정리해보았다. KoGPT2란? 참고 : https://github.com/SKT-AI/KoGPT2 GitHub - SKT-AI/KoGPT2: Korean GPT-2 pretrained cased (KoGPT2) Korean GPT-2 pretrained cased (KoGPT2). Contribute to SKT-AI..
[cs231n/Spring 2023] Lecture 5: Image Classification with CNNs
·
🤖 ai logbook
Standford University - CS231n(Convolutional Neural Networks for Visual Recognition) Stanford University CS231n: Deep Learning for Computer Vision ✔ reference 더보기 YouTube cs231n 2강 Image classification pipeline - YouTube Lecture 1 | Introduction to Convolutional Neural Networks for Visual Recognition - YouTube Doc https://yganalyst.github.io/dl/cs231n_1 https://yerimoh.github.io/DL206/ https://bi..
[NLP/자연어처리/Python] text generation 실습 (transformer 언어 번역)
·
🤖 ai logbook
(PyTorch) Text Generation 참고 : https://tutorials.pytorch.kr/beginner/translation_transformer.html?highlight=de_core_news_sm nn.Transformer 와 torchtext로 언어 번역하기 이 튜토리얼에서는,,- Transformer(트랜스포머)를 사용한 번역 모델을 바닥부터 학습하는 방법을 배워보겠습니다., Multi30k 데이터셋을 사용하여 독일어(German)를 영어(English)로 번역하는 모델을 학습 tutorials.pytorch.kr 해당 tutorial을 진행하면서 공부한 내용을 정리해보았다. tutorial의 목표는 독일어(German)를 영어(English)로 번역하는 모델을 학습시키는 것..
[NLP/자연어처리/Python] text classification 실습
·
🤖 ai logbook
(PyTorch) Text Classification 참고 : https://tutorials.pytorch.kr/beginner/text_sentiment_ngrams_tutorial.html torchtext 라이브러리로 텍스트 분류하기 번역: 김강민, 김진현 이 튜토리얼에서는 torchtext 라이브러리를 사용하여 어떻게 텍스트 분류 분석을 위한 데이터셋을 만드는지를 살펴보겠습니다. 다음과 같은 내용들을 알게 됩니다: 반복자(it tutorials.pytorch.kr 해당 tutorial을 진행하면서 공부한 내용을 정리하고, 실제로 model이 잘 동작하는지 임의의 예시(CNN 뉴스기사)를 가지고 테스트를 진행해 보았다. 1필요한 library를 설치한다 !pip install torchdata !..
[NLP/자연어처리] BERT & GPT & ChatGPT
·
🤖 ai logbook
reference더보기https://wikidocs.net/book/2155https://wikidocs.net/book/7100 https://kikaben.com/gpt-3-in-context-few-shot-learner-2020/ https://towardsdatascience.com/how-chatgpt-works-the-models-behind-the-bot-1ce5fca96286 BERT (Bidirectional Encoder Representations from Transformers) 참고 : https://arxiv.org/pdf/1810.04805.pdf 2018년에 구글이 공개한 사전 훈련된 모델 트랜스포머를 이용하여 구현하였으며, 구조자체는 transformer encoder와 ..
[NLP/자연어처리] 트랜스포머(Transformer)
·
🤖 ai logbook
reference 더보기 https://wikidocs.net/book/8056 https://wikidocs.net/book/2155 https://wikidocs.net/book/7100 Transformer 참고 : "Attention is all you need", https://arxiv.org/pdf/1706.03762.pdf 2017년 구글이 발표한 논문인 "Attention is all you need"에서 나온 모델로, 번역 성능에서 RNN보다 우수한 성능을 보여줌 seq2seq처럼 인코더-디코더 구조를 따르긴 했지만, attention만으로 구현한 모델 * attention : 기본 아이디어는 디코더에서 출력 단어를 예측하는 매 시점(time step)마다, 인코더에서의 전체 입력 문장..
[NLP/자연어처리] seq2seq 인코더-디코더 및 어텐션 모델 (Seq2Seq Encoder-Decoder & Attention Model)
·
🤖 ai logbook
reference 더보기 https://wikidocs.net/book/2155 https://wikidocs.net/book/7100 Seq2Seq Encoder-Decoder seq2seq는 transformer의 기본 구조로 번역기 등에 사용되는 대표적인 모델이다. 주로 LSTM(Long-Short Term Memory)를 사용하며, 인코더와 디코더로 구성된다. Encoder 입력 문장을 토큰화한 뒤에 구해진 word sequence로부터 sentence representation(encoded vector/context vector)를 생성한다. Decoder Encoder가 생성한 sentence representation(encoded vector/context vector)를 사용해 출력 시..