DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
大模型评测的新标杆:超高难度的“Humanity’s Last Exam”(HLE)介绍

大模型评测的新标杆:超高难度的“Humanity’s Last Exam”(HLE)介绍

近年来,大语言模型(LLM)的能力飞速提升,但评测基准的发展却显得滞后。以广泛使用的MMLU(大规模多任务语言理解)为例,GPT-4、Claude等前沿模型已能在其90%以上的问题上取得高分。这种“评测饱和”现象导致研究者难以精准衡量模型在尖端知识领域的真实能力。为此,Safety for AI和Scale AI的研究人员推出了Humanity’s Last Exam大模型评测基准。这是一个全新的评测基准,旨在成为大模型“闭卷学术评测的终极考验”。

2025/02/03 19:12:293,202
#HLE#大模型评测
大数据环境下的处理系统与数据分析

大数据环境下的处理系统与数据分析

随着互联网的高速发展,人类进入了一个信息爆炸的时代,每个人的生活都充满了结构化和非结构化的数据。另外,随着以博客、社交网络、基于位置的服务LBS为代表的新型信息发布方式的不断涌现,以及云计算、物联网技术的兴起,数据正以前所未有的速度在不断地增长和积累,数据已经渗透到当今每一个行业和业务职能领域成为重要的产生因素,以数据为驱动的大数据时代已经不可避免地到来。本文主要围绕大数据特征、处理系统、以及大数据分析来阐述大数据环境下的数据分析在思想、流程、方法等方面的转变,以及围绕此主题而出现的相关关键技术与方法。

2018/09/29 16:31:273,202
#大数据
重磅!Kimi K2.5发布,依然免费开源!原生多模态MoE架构,全球最大规模参数的开源模型之一,官方评测结果比肩诸多闭源模型!可以驱动100个子Agent执行!

重磅!Kimi K2.5发布,依然免费开源!原生多模态MoE架构,全球最大规模参数的开源模型之一,官方评测结果比肩诸多闭源模型!可以驱动100个子Agent执行!

2026年1月27日,月之暗面(Moonshot AI)发布新一代模型Kimi K2.5。根据官方说明,这是Kimi K2的后续版本,目前已通过Kimi.com网页端和App向用户推送。该模型同步上线Kimi API开放平台及编程助手Kimi Code,模型权重与相关代码也在Hugging Face开源。

2026/01/27 17:27:053,224
#K2#K2.5
《Effective Java 第三版》笔记之一 创建静态工厂方法而不是使用构造器

《Effective Java 第三版》笔记之一 创建静态工厂方法而不是使用构造器

本文是Effective Java第三版笔记的第一个之创建静态工厂方法而不是使用构造器

2018/09/14 23:06:363,226
#effectivejava#java
Java中自增操作i++与++i的区别

Java中自增操作i++与++i的区别

在Java中,自增是一种非常常见的操作,在自增中,有两种写法,一种是前缀自增(++i),一种是后缀自增(i++)。这里主要简单介绍两种自增的差别。

2019/09/07 15:17:283,226
#java#编程
隐马尔科夫模型及其在NLP中的应用指南

隐马尔科夫模型及其在NLP中的应用指南

隐马尔可夫模型(HMM)是一种统计模型,也用于机器学习。它可以用来描述取决于内部因素的可观察事件的演变,而这些因素是无法直接观察到的。这是一类概率图形模型,允许我们从一组观察到的变量中预测一串未知的变量。在这篇文章中,我们将详细讨论隐马尔可夫模型。我们将了解它可以使用的背景,我们也将讨论它的不同应用。我们还将讨论HMM在PoS标签中的使用和python的实现。文章中所涉及的主要内容如下。

2021/10/17 15:53:453,227
#HMM#机器学习
Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required

2019/03/27 21:15:193,233
#MicrosoftVisualC++14.0isrequired#python
浮动

浮动

2018/10/09 14:39:263,238
#浮动
TensorFlow学习——基本概念(1)

TensorFlow学习——基本概念(1)

TensorFlow基本概念

2019/03/27 21:18:223,257
#TensorFlow基本概念
三层Dirichlet 过程(非参贝叶斯模型)-来自Machine Learning

三层Dirichlet 过程(非参贝叶斯模型)-来自Machine Learning

2018/04/20 22:20:243,259
#三层Dirichlet过程
如何让开源大模型支持ChatGPT的Code Interpreter能力:基于LangChain的开源项目Code Interpreter API

如何让开源大模型支持ChatGPT的Code Interpreter能力:基于LangChain的开源项目Code Interpreter API

ChatGPT的Code Interpreter插件让ChatGPT突破了大语言模型本身只能做文本处理的限制,使其可以通过生成并执行Python代码来实现强大的数据分析、图片生成、视频数据处理等操作,大大拓展了ChatGPT的实用范围和价值。在此前的文章中,我们已经分析了Code Interpreter插件的官方实现。而今天,LangChain的官方博客也推出了一种类似的开源方案,让开源模型也可以实现ChatGPT的Code Interperter插件。我们简要描述一下这个方案。

2023/07/18 00:32:473,260
#ChatGPT#CodeInterpreter
Topic model相关文章汇总

Topic model相关文章汇总

2017/11/15 08:42:593,268
#主题模型
Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

2019/03/27 21:19:463,268
#Keras框架下的保存模型和加载模型
计算机视觉领域的六大任务简介

计算机视觉领域的六大任务简介

计算机视觉与自然语言处理是近几年人工智能领域进步最快以及应用最为成熟的两个方向。计算机视觉里面任务涉及面广,有很多细分领域,本文将对计算机视觉领域中比较常见的六种任务进行总结并同时展示以下相关任务的一些成绩。

2021/11/21 21:29:203,273
#CV#计算机视觉
TensorFlow与PyTorch近几年发展对比

TensorFlow与PyTorch近几年发展对比

Tensorflow和PyTorch是深度学习最流行的两个框架,二者都有坚定的支持者。一般认为由于Google的支持,TensorFlow的社区支持比较好,在工业应用广泛。但是尽管有keras加持,但易用性方面依然被认为不如PyTorch。而后者最早由Facebook人工智能团队开发。由于其易用性,被认为在科学研究中有广泛使用。那么,最近几年二者发展如何,是否实际还如之前的观点一样,这里AssemblyAI的一个作者做了一些对比。

2021/12/15 19:54:203,281
#pytorch#tensorflow
指标函数(Metrics Function)和损失函数(Loss Function)的区别是什么?

指标函数(Metrics Function)和损失函数(Loss Function)的区别是什么?

指标(metrics)和损失函数(loss function)在深度学习和机器学习里面非常常见,很多时候他们的公式都似乎是一样的,在编写程序的时候,二者的区别好像也不是很大。那为什么还会有这两种不同的概念出现呢?本文将简单介绍一下二者的区别和应用。

2022/07/05 19:14:023,285
#指标函数#损失函数
如何把一个目录下的所有文件,合并成一个文件

如何把一个目录下的所有文件,合并成一个文件

java 读写操作

2016-10-11 09:14:463,301
#java#数据处理
国产开源中文大语言模型再添重磅玩家:清华大学NLP实验室发布开源可商用大语言模型CPM-Bee

国产开源中文大语言模型再添重磅玩家:清华大学NLP实验室发布开源可商用大语言模型CPM-Bee

5月27日,OpenBMB发布了一个最高有100亿参数规模的开源大语言模型CPM-BEE,OpenBMB是清华大学NLP实验室联合智源研究院成立的一个开源组织。该模型针对高质量中文数据集做了训练优化,支持中英文。根据官方的测试结果,其英文测试水平约等于LLaMA-13B,中文评测结果优秀。

2023/05/31 23:07:403,304
#CPM-Bee#中文大模型
R语言操作数据库

R语言操作数据库

R语言操作数据库

2016-05-25 22:00:243,335
#R语言#数据库
网络爬虫模拟登陆获取数据并解析实战(二)

网络爬虫模拟登陆获取数据并解析实战(二)

网络爬虫模拟登陆获取数据并解析实战

2016-09-09 08:33:543,337
#java#网络爬虫
不同参数规模大语言模型在不同微调方法下所需要的显存总结

不同参数规模大语言模型在不同微调方法下所需要的显存总结

大模型的微调是当前很多人都在做的事情。微调可以让大语言模型适应特定领域的任务,识别特定的指令等。但是大模型的微调需要的显存较高,而且比较难以估计。与推理不同,微调过程微调方法的选择以及输入序列的长度、批次大小都会影响微调显存的需求。本文根据LLaMA Factory的数据总结一下大模型微调的显存要求。

2023/12/22 22:12:583,347
#大模型微调#微调显存
深度学习技巧之一

深度学习技巧之一

2018/09/25 10:22:473,348
#机器学习#深度学习
hive数据操作

hive数据操作

hive的使用方法

2016-04-06 21:32:473,352
#hadoop#hive
 Keras框架下输出模型中间层学习到的表示的两种常用方式

Keras框架下输出模型中间层学习到的表示的两种常用方式

深度学习本质上是表示学习,它通过多层非线性神经网络模型从底层特征中学习出对具体任务而言更有效的高级抽象特征。针对一个具体的任务,我们往往会遇到这种情况:需要用一个模型学习出特征表示,然后将学习出的特征表示作为另一个模型的输入。这就要求我们会获取模型中间层的输出,下面以具体代码形式介绍两种具体方法。

2019/04/10 20:26:103,360
#Keras#中间层表示
上一页
1...262728...40
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • Sam Altman宣布未来几周将发布GPT-4.5,几个月后发布GPT-5,未来免费用户也可以无限量使用GPT-5!
  • HMC(Hamiltonian Monte Carlo抽样算法详细介绍)
  • Seq2Seq的建模解释和Keras中Simple RNN Cell的计算及其代码示例
  • MMMU基准:多模态多学科复杂推理能力的权威评估体系
  • AI Agent进展再进一步!Anthropic发布大模型上下文连接访问协议MCP:让任何资源快速变成大模型的工具,突破大模型的能力边界!
  • HuggingFace官方宣布将对GGUF格式的大模型文件增加更多的支持,未来可以直接在HF上查看GGUF文件的元数据信息!
  • 深度学习中为什么要使用Batch Normalization
  • 大数据环境下的处理系统与数据分析