DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools
LanguageEnglish

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

Products

  • Leaderboards
  • Model comparison
  • Datasets

Resources

  • Tutorials
  • Editorial
  • Tool directory

Company

  • About
  • Privacy policy
  • Data methodology
  • Contact

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

Privacy policyTerms of service
Page navigation
目录
Model catalogGPT-3
GP

GPT-3

Generative Pre-trained Transformer 3

Release date: 2020-05-28更新于: 2023-08-16 22:09:19.616847
Live demoGitHubHugging FaceCompare
Parameters
1750.0亿
Context length
2K
Chinese support
Supported
Reasoning ability

Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology

GPT-3

Model basics

Reasoning traces
Not supported
Thinking modes
Thinking modes not supported
Context length
2K tokens
Max output length
No data
Model type
基础大模型
Release date
2020-05-28
Model file size
No data
MoE architecture
No
Total params / Active params
1750.0B / N/A
Knowledge cutoff
No data
GPT-3

Open source & experience

Code license
不开源
Weights license
不开源- 不开源
GitHub repo
GitHub link unavailable
Hugging Face
Hugging Face link unavailable
Live demo
No live demo
GPT-3

Official resources

Paper
Language Models are Few-Shot Learners
DataLearnerAI blog
No blog post yet
GPT-3

API details

API speed
No data
No public API pricing yet.
GPT-3

Benchmark Results

No benchmark data to show.
GPT-3

Publisher

OpenAI
OpenAI
View publisher details
Generative Pre-trained Transformer 3

Model Overview

GPT-3是OpenAI发布的迄今为止最强大的大语言预训练模型之一。GPT-3是OpenAI的第三代自回归语言模型。相比较GPT-2,GPT-3模型参数大了2个量级,达到了1750个参数。

由于GPT-3太过强大,OpenAI认为可能会出现利用这个模型实施各种“不好”的事情行为。因此他们并没有公开这个模型,这也与他们建立之初作为一个非盈利的开放AI研究机构相违背。起初,这种行为遭到了大量的批评。但是,现在发现这个模型的确可能会导致很多坏事情,而且各大企业也都不再开放这种模型,因此,批评声音逐渐减弱了。

GPT-3模型的训练来自大量的互联网无标注数据。根据维基百科的介绍,其权重占比如下:


数据集token数量训练mix的权重
Common Crawl4100亿60%
WebText2190亿22%
Books1120亿8%
Books2550亿8%
Wikipedia30亿3%


由于GPT-3的训练数据包罗万象,它不需要进一步训练不同的语言任务。

GPT-3模型本身可以做很多事情,OpenAI也基于这个模型在不同领域做了微调,产生了很多领域内的应用,包括代码生成、图像生成等。

Foundation model

GPT
GPT
View details

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码