DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
Tools

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
智谱AI与清华大学联合发布第三代基座大语言模型ChatGLM3:6B版本的ChatGLM3能力大幅增强,依然免费商用授权!

智谱AI与清华大学联合发布第三代基座大语言模型ChatGLM3:6B版本的ChatGLM3能力大幅增强,依然免费商用授权!

ChatGLM系列是智谱AI发布的一系列大语言模型,因为其优秀的性能和良好的开源协议,在国产大模型和全球大模型领域都有很高的知名度。今天,智谱AI开源其第三代基座大语言模型ChatGLM3-6B,官方说明该模型的性能较前一代大幅提升,是10B以下最强基础大模型!

2023/10/27 17:13:142,943
#ChatGLM#ChatGLM3
【转载】全面解读ICML 2017五大研究热点 | 腾讯AI Lab独家解析

【转载】全面解读ICML 2017五大研究热点 | 腾讯AI Lab独家解析

腾讯AI Lab去年四月成立,今年是首次参加ICML,共计四篇文章被录取,位居国内企业前列。此次团队由机器学习和大数据领域的专家、腾讯AI Lab主任张潼博士带领到场交流学习,张潼博士还担任了本届ICML领域主席。在本次130人的主席团队中,华人不超过10位,内地仅有腾讯AI Lab、清华大学和微软研究院三家机构。

2017/11/04 09:36:192,936
#学术#科研
Jsoup使用演示

Jsoup使用演示

网络爬虫

2016-04-06 21:32:562,935
#JAVA#网络爬虫
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models

大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models

3月29日,DeepMind发表了一篇论文,"Training Compute-Optimal Large Language Models",表明基本上每个人--OpenAI、DeepMind、微软等--都在用极不理想的计算方式训练大型语言模型。论文认为这些模型对计算的使用一直处于非常不理想的状态。并提出了新的模型缩放规律。

2022/04/04 13:14:092,930
#deepmind#论文快讯
LFDMM源码剖析(融入词向量的概率图模型)

LFDMM源码剖析(融入词向量的概率图模型)

源码

2018/03/27 14:48:372,927
#源码
全球最大10个的SaaS企业简介

全球最大10个的SaaS企业简介

现代软件企业中,SaaS服务提供商是最值得注意的企业。因为SaaS行业规模大利润高,也是最有前景的一类企业。但是,国内市场因为很多因素导致SaaS的规模和空间都比较低。本文梳理一下全球最大的10个SaaS服务提供商,供大家参考。

2021/12/08 22:58:162,921
#云计算#创业企业
常见的正则表达式写法总结

常见的正则表达式写法总结

正则表达式非常有用,非常强大,但也并不容易写,在这里我们总结一些常用的正则表达式写法

2017/11/18 09:20:502,912
#java#正则表达式
智谱AI发布第二代CodeGeeX编程大模型:CodeGeeX2-6B,最低6GB显存可运行,基于ChatGLM2-6B微调

智谱AI发布第二代CodeGeeX编程大模型:CodeGeeX2-6B,最低6GB显存可运行,基于ChatGLM2-6B微调

编程大模型是大语言模型的一个非常重要的应用。刚刚,清华大学系创业企业智谱AI开源了最新的一个编程大模型,CodeGeeX2-6B。这是基于ChatGLM2-6B微调的针对编程领域的大模型。

2023/07/25 15:26:412,904
#ChatGLM2-6B#CodeGeeX
块级元素和行内元素以及转换

块级元素和行内元素以及转换

2018/10/09 13:38:012,903
#块级元素和行内元素
HttpClient的使用方法案例

HttpClient的使用方法案例

HttpClient的使用方法案例 爬虫

2016-04-06 21:32:332,901
#Java#网络爬虫
来自Microsoft Build 2023:大语言模型是如何被训练出来的以及语言模型如何变成ChatGPT——State of GPT详解

来自Microsoft Build 2023:大语言模型是如何被训练出来的以及语言模型如何变成ChatGPT——State of GPT详解

在今年的Microsoft Build 2023大会上,来自OpenAI的研究员Andrej Karpathy在5月24日的一场汇报中用了40分钟讲解了ChatGPT是如何被训练的,其中包含了训练一个能支持与用户对话的GPT的全流程以及涉及到的一些技术。信息含量丰富,本文根据这份演讲总结。

2025/12/21 17:20:242,894
#LLM#RLHF
是否需要使用NumPy代替Pandas处理数据以提高性能?

是否需要使用NumPy代替Pandas处理数据以提高性能?

Pandas和NumPy是Python数据科学领域中最基础的两个库,他们都可以读取大量的数据并对数据做计算等处理。有很多的操作他们都能做。那么,这两个Python库在数据处理的性能上有什么差别呢?今天在Reddit上看到一个有意思的讨论和大家分享一下。

2021/12/11 19:50:592,886
#numpy#pandas
大模型评测的新标杆:超高难度的“Humanity’s Last Exam”(HLE)介绍

大模型评测的新标杆:超高难度的“Humanity’s Last Exam”(HLE)介绍

近年来,大语言模型(LLM)的能力飞速提升,但评测基准的发展却显得滞后。以广泛使用的MMLU(大规模多任务语言理解)为例,GPT-4、Claude等前沿模型已能在其90%以上的问题上取得高分。这种“评测饱和”现象导致研究者难以精准衡量模型在尖端知识领域的真实能力。为此,Safety for AI和Scale AI的研究人员推出了Humanity’s Last Exam大模型评测基准。这是一个全新的评测基准,旨在成为大模型“闭卷学术评测的终极考验”。

2025/02/03 19:12:292,877
#HLE#大模型评测
康奈尔大学发布可以在一张消费级显卡上微调650亿参数规模大模型的框架:LLMTune

康奈尔大学发布可以在一张消费级显卡上微调650亿参数规模大模型的框架:LLMTune

Cornell Tech开源了LLMTune,这是一个可以在消费级显卡上微调大模型的框架,经过测试,可以在48G显存的显卡上微调4bit的650亿参数的LLaMA模型!

2023/05/14 23:42:572,868
#PEFT#大模型微调
如何用7.7亿参数的蒸馏模型超过5400亿的大语言模型——Google提出新的模型蒸馏方法:逐步蒸馏(Distilling step-by-step)详解

如何用7.7亿参数的蒸馏模型超过5400亿的大语言模型——Google提出新的模型蒸馏方法:逐步蒸馏(Distilling step-by-step)详解

华盛顿大学研究人员与Google的研究人员一起在5月3日公布了一个新的方法,即逐步蒸馏(Distilling step-by-step),这个方法最大的特点有2个:一是需要更少的数据来做模型的蒸馏(根据论文描述,平均只需要之前方法的一半数据,最多只需要15%的数据就可以达到类似的效果);而是可以获得更小规模的模型(最多可以比原来模型规模小2000倍!)

2023/05/05 22:03:052,849
#模型蒸馏
2023年9月份各大企业拥有的A100的GPU显卡数量

2023年9月份各大企业拥有的A100的GPU显卡数量

在高性能计算(HPC)、人工智能(AI)、和数据分析等领域,图形处理器(GPUs)正在发挥越来越重要的作用。其中,NVIDIA的 A100尤为引人注目。这是英伟达最强大的显卡处理器,也是当前使用最广泛大模型训练用的显卡。本文主要是各大企业最新的2023年9月份拥有的显卡数量统计。

2023/09/16 14:08:582,842
#A100#显卡
Stable Diffusion2.1发布!

Stable Diffusion2.1发布!

刚刚,StabilityAI宣布Stable Diffusion2.1发布。距离Stable Diffusion2.0大版本发布刚2个星期,2.1版本就发布了,2.1版本有诸多改进功能。

2022/12/08 00:33:512,838
#StabilityAI#StableDiffusion
!important属性和权重

!important属性和权重

2018/10/07 21:42:062,837
#!important和权重
华为大模型生态重要一步!PyTorch最新2.1版本宣布支持华为昇腾芯片(HUAWEI Ascend)

华为大模型生态重要一步!PyTorch最新2.1版本宣布支持华为昇腾芯片(HUAWEI Ascend)

大模型的发展一个重要的基础条件是底层硬件计算能力的大幅提高,特别是GPU的发展,与transformer架构的大模型训练非常契合。当前全球最大的GPU供应商英伟达系列的显卡几乎垄断了大模型训练与推理的所有GPU芯片市场。除了英伟达显卡本身算力强悍外,基于英伟达GPU之上构建的CUDA、PyTorch等平台软件生态也是非常重要的一环。而最新的PyTorch2.1版本发布的一个beta特性中包含了对华为昇腾芯片的原生支持,这也是大模型生态多样性发展的一个很重要的信号。

2023/10/09 11:45:032,837
#NPU#PyTorch
Pseudo-document-based Topic Model(基于伪文档的主题模型)的理解以及源码解读

Pseudo-document-based Topic Model(基于伪文档的主题模型)的理解以及源码解读

2018/04/20 22:13:522,828
#源码
对比关系生成模型(Comparative Relation Generative Model)

对比关系生成模型(Comparative Relation Generative Model)

2018/03/09 09:00:212,820
#生成模型
python中Scrapy的安装详细过程

python中Scrapy的安装详细过程

python中Scrapy的安装详细过程

2016-09-18 08:30:302,815
#python#网络爬虫
网络爬虫之java基础篇QueryRunner(Ⅲ)

网络爬虫之java基础篇QueryRunner(Ⅲ)

网路爬虫数据库操作

2016-09-08 22:10:022,811
#Java#数据库
神器!AI硬件基准测试库发布

神器!AI硬件基准测试库发布

2019/06/30 21:14:312,811
#人工智能
上一页
1...151617...40
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • 使用Jupyter Notebook编程与python脚本编程的差异
  • GPQA: 可以防止使用谷歌作弊的研究生级别难度的大模型专业能力评测基准(A Graduate-Level Google-Proof Q&A Benchmark)
  • Java入门基础笔记-11
  • 人工神经网络(Artificial Neural Network)算法简介
  • 自然语言处理中常见的字节编码对(Byte-Pair Encoding,BPE)简介
  • 网站开启支持https访问
  • Author Topic Model[ATM理解及公式推导]
2023年11月第四周的HuggingFace流行的十大开源大模型分析——多模态大模型和小规模模型爆发