GPT 모델: 대규모 텍스트 데이터 기반의 언어 모델
GPT 모델이란? GPT는 "Generative Pre-trained Transformer"의 약어로, OpenAI에서 개발한 언어 모델입니다. GPT 모델은 대규모 텍스트 데이터에서 미리 학습된 이후, 새로운 텍스트를 생성하거나 다양한 자연어 처리(NLP) 태스크를 수행할 수 있습니다. Transformer 아키텍처 GPT 모델은 Transformer 아키텍처를 기반으로 합니다. Transformer는 2017년 Vaswani et al.에 의해 소개된 딥러닝 모델로, 순차 데이터(예: 자연어 텍스트)를 처리하기 위해 설계되었습니다. Transformer 아키텍처는 self-attention 매커니즘을 사용하여 입력 시퀀스의 다른 부분들의 중요도를 가중합하여 예측하는 방식으로 작동합니다. 미세 조정(f..
IT Story/ChartGPT
2023. 3. 18. 10:18
250x250
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Containerization
- EC2
- ML
- 티스토리
- svelte
- ubuntu
- GPT
- 클라우드
- frontend
- 개발이야기
- Docker 관리
- cloudcomputing
- ChartGPT
- 실습
- 한식
- 딥러닝
- docker
- AI
- 따라하기
- svelte 따라해보기
- MongoDB
- lambda
- AWS
- typescript
- Redis
- nestjs
- 쉽게따라하기
- DevOps
- python
- 따라해보기
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함