코딩 메모장

  • 홈
  • 태그
  • 방명록

논문리뷰 1

[논문리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (1)

- reference https://arxiv.org/abs/1810.04805 0. Abstract 저자는 새로운 언어 모델 BERT(Bidrectional Encoder Representations for Transformers)를 소개합니다. BERT는 길게 설명한 것처럼 트랜스포머 모델을 이용한 양방향 인코더 표현들입니다. BERT모델은 당시(2018년)의 대표 언어 모델 ELMo, GPT-1 과 다르게 양방향으로 데이터를 학습했습니다. ELMo와 GPT는 단방향으로 학습합니다. BERT모델은 unlabeled data를 통해 pre-train을 합니다. 이후 just one additional output layer 을 통해 fine-tuning 하여 Question Answering(QA, 질..

Paper 2023.10.02
이전
1
다음
더보기
250x250
프로필사진

코딩 메모장

  • 분류 전체보기 (149)
    • Paper (25)
      • Metric (6)
      • Model (3)
    • AI & DL (23)
      • Pytorch (6)
      • Hugging Face (7)
      • Pytorch Lightning (8)
      • Lang Chain (0)
    • Coding (35)
      • Python (25)
      • Numpy (5)
      • Clean Code (3)
      • SQL (1)
    • Algorithm (45)
      • BOJ (25)
      • 프로그래머스 (17)
    • Django (1)
    • Cloud (1)
      • GCP (1)
    • Program (7)
      • Docker (5)
      • VSCode (2)
    • AI API (3)
      • OpenAI (2)
      • Gemini (1)
    • Project (1)
    • 활동 (7)
      • 교내활동 (4)
      • 대외활동 (2)
      • 잡동사니 (1)

Tag

docker, c++, pytorch, 프로그래머스, ESconv, PyTorch Lightning, BOJ, Python, numpy, 오블완, nlp, 백준, paper, huggingface, Metric, LEVEL 2, DataSet, 파이썬, 실버, Silver,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바