Galactica
Galactica is an AI model published by Facebook AI研究实验室, released on 2022-11-15, for 基础大模型, with 1200.0B parameters, and 2K tokens context length, requiring about 228G storage.
Data sourced primarily from official releases (GitHub, Hugging Face, papers), then benchmark leaderboards, then third-party evaluators. Learn about our data methodology
Galactica是由PapersWithCode发布的科研领域的NLP预训练模型。
Galactica模型是在一个大型语料库上训练出来的,该语料库包括超过3.6亿条上下文引文和超过5000万条在不同来源中规范化的独特引用。这使得Galactica能够建议引文并帮助发现相关的论文。
Galactica模型的能力概括如下:
不过,不像其它企业喜欢说优点,官方也将这个模型的限制描述了出来:
但是,最重要的是,他们的模型是开源的!最大的模型1200亿参数,最小的只有1.25亿参数,二进制预训练文件大小235MB。最大的模型应该是200-300GB之间!
官方网站之前有模型的演示功能,但是由于争议过大,下架了。目前仅有Meta开源的版本。
官方网站: https://galactica.org/
GitHub开源地址: https://github.com/paperswithcode/galai
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
