加载中...
PaLM-Coder
数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法
谷歌家的编程大模型,基于PaLM进行微调得到的。参数5400亿。
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送