DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Original Blog

Original AI Tech Blogs

Explore the latest AI and LLM news and technical articles, covering original content and practical cases in machine learning, deep learning, and natural language processing.

Sort by
Sort by DateSort by Views
微软开源DeepSpeed Chat——一个端到端的RLHF的pipeline,可以用来训练类ChatGPT模型。

微软开源DeepSpeed Chat——一个端到端的RLHF的pipeline,可以用来训练类ChatGPT模型。

RLHF全称Reinforcement Learning from Human Feedback,是随着ChatGPT火爆之后而被大家所关注的技术。昨天,微软开源了业界第一个RLHF的pipeline框架,可以用来训练类似ChatGPT的模型。

2023/04/24 22:37:531,196
#DeepSpeedChat#RLHF
预训练大模型时代必备技巧——提示工程指南(Prompt Engineering Guide)

预训练大模型时代必备技巧——提示工程指南(Prompt Engineering Guide)

随着预训练大模型技术的发展,基于prompt方式对模型进行微调获得模型输出已经是一种非常普遍的大模型使用方法。但是,对于同一个问题,使用不同的prompt也会获得不同的结果。为了获得更好的模型输出,对prompt进行调整,学习prompt工程技巧是一种必备的技能。

2023/04/24 22:37:284,190
#Prompt#大模型
如何使用git从GitHub上下载项目、更新远端项目并提交本地的更改

如何使用git从GitHub上下载项目、更新远端项目并提交本地的更改

介绍如何使用git下载远程、更新远程项目到本地,提交本地更改到远程

2023/04/24 22:37:111,836
#git
微软发布大语言模型与传统编程语言的集成编程框架——Python版本的Semantic Kernel今日发布

微软发布大语言模型与传统编程语言的集成编程框架——Python版本的Semantic Kernel今日发布

目前的LLM有很多限制,有很多问题并不能很好的解决,例如文本输入长度有限、无法记住很早之前的信息等。而这些问题目前也都缺少合适的解决方案。它们所依赖的技术:如任务规划、提示模板、向量化内存等需要的是编程的智慧。Semantic Kernel就是微软在这个背景下推出的一个结合LLM与传统编程技术的编程框架。

2023/04/24 22:36:511,647
#ChatGPT#SemanticKernel
OpenAI官方教程:如何使用基于embeddings检索来解决GPT无法处理长文本和最新数据的问题

OpenAI官方教程:如何使用基于embeddings检索来解决GPT无法处理长文本和最新数据的问题

这是OpenAI官方的cookebook最新更新的一篇技术博客,里面说明了为什么我们需要使用embeddings-based的搜索技术来完成问答任务。

2023/04/24 22:36:298,390
#ChatGPT#LLM
2023年4月中旬值得关注的几个AI模型:Dollly2、MiniGPT-4、LLaVA、DINOv2

2023年4月中旬值得关注的几个AI模型:Dollly2、MiniGPT-4、LLaVA、DINOv2

AI模型的发展速度令人惊讶,几乎每天都会有新的模型发布。而2023年4月中旬也有很多新的模型发布,我们挑出几个重点给大家介绍一下。

2023/04/24 22:36:072,592
#开源模型
开源可商用大模型再添重磅玩家——StabilityAI发布开源大语言模型StableLM

开源可商用大模型再添重磅玩家——StabilityAI发布开源大语言模型StableLM

今天,Stability宣布开源StableLM计划,这是一个正在开发过程的大语言模型,但是它是开源可商用的模型。本文将对该模型做简单的介绍!

2023/04/24 22:35:451,083
#StabilityAI#StableLM
如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

本文是Replit工程师发表的训练自己的大语言模型的过程的经验和步骤总结。Replit是一家IDE提供商,它们训练LLM的主要目的是解决编程过程的问题。Replit在训练自己的大语言模型时候使用了Databricks、Hugging Face和MosaicML等提供的技术栈。这篇文章提供的都是一线的实际经验,适合ML/AI架构师以及算法工程师学习。

2023/04/24 22:35:152,536
#LLM#模型训练
实际案例说明AI时代大语言模型三种微调技术的区别——Prompt-Tuning、Instruction-Tuning和Chain-of-Thought

实际案例说明AI时代大语言模型三种微调技术的区别——Prompt-Tuning、Instruction-Tuning和Chain-of-Thought

Prompt-Tuning、Instruction-Tuning和Chain-of-Thought是近几年十分流行的大模型训练技术,本文主要介绍这三种技术及其差别。

2023/04/24 22:34:1116,889
#大模型训练
500+个优质的ChatGPT的Prompts(模板)

500+个优质的ChatGPT的Prompts(模板)

随着ChatGPT的火爆,Prompts概念开始被大家所熟知。早期类似如BERT模型的微调都是通过有监督学习的方式进行。但是随着模型越来越大,冻结大部分参数,根据下游任务做微调对模型的影响越来越小。大家开始发现,让下游任务适应预训练模型的训练结果有更好的性能。而ChatGPT的火爆让大家知道,虽然ChatGPT的能力很强,但是需要很好的提问方式才能让它为你所服务。

2023/03/10 23:09:094,238
#ChatGPT#Prompts
GPT-4来了!微软德国CTO透露GPT-4将是多模态模型,并于下周发布!

GPT-4来了!微软德国CTO透露GPT-4将是多模态模型,并于下周发布!

万众瞩目的GPT-4即将来临!3月9日晚上在德国举办的一个AI会议。微软德国的员工参与了讨论,在介绍微软云的AI能力的时候,微软德国CTO Andreas Braun透露了GPT-4将在下周发布。

2023/03/10 09:10:08709
#ChatGPT#GPT
2022年必读的AI论文——100个AI领域被引最多的论文分析

2022年必读的AI论文——100个AI领域被引最多的论文分析

尽管AI领域在工业界发展迅速,企业研究机构在拼命的开发相关的产品以推动各自业务的发展。但是他们也在科研领域不断贡献大量的AI论文。Zeta Alpha的一篇博客分析了2022年发表的被引用最多的100篇AI论文,给大家提供一个洞察思路。

2023/03/04 23:36:342,068
#AI#论文
2022年被引次数最多的AI论文列表

2022年被引次数最多的AI论文列表

本表是Zeta Alpha收集的2022年AI领域被引次数最多的论文列表。

2023/03/04 23:17:371,126
#AI#论文
重磅优惠!打1折!OpenAI开放最新的GPT-3.5和ChatGPT模型API商业服务!

重磅优惠!打1折!OpenAI开放最新的GPT-3.5和ChatGPT模型API商业服务!

自从2019年OpenAI开始商业化以来,OpenAI的成果越来越封闭,而商业化的进程越来越快。GPT系列的发展正好印证了这个路径。GPT最初的版本包含了论文、代码和预训练结果。GPT-2刚开始也认为可能会造成不好的伤害而在论文官宣了大半年之后才公布了完整模型。到GPT-3的时候也就给了官方介绍博客和论文,模型则是彻底闭源且开始商业化。而今天OpenAI直接官方博客宣布GPT-3.5商业化,连论文都没有了!

2023/03/02 17:08:351,592
#ChatGPT#OpenAI
生成式AI平台的玩家都有哪些?

生成式AI平台的玩家都有哪些?

近几年人工智能的发展已经让大家感受到AI算法不再是实验室的小玩具,它对社会和生活的影响已经在逐步显现。仅几年的AI模型如ChatGPT、DALL·E2、StableDiffusion等都是生成式模型,即基于无标注数据训练的可以根据输入观测数据的模型。而生成式AI平台可能是未来最重要的一种平台能力。本文是由Matt Bornstein, Guido Appenzeller, and Martin Casado等人发布的介绍当前生成式AI平台的相关企业。

2023/03/01 22:55:07920
#AI
为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?

为什么最新的大语言模型(如ChatGPT)都使用强化学习来做微调(finetuning)?

最近,随着ChatGPT的火爆,大语言模型(Large language model)再次被大家所关注。当年BERT横空出世的时候,基于BERT做微调风靡全球。但是,最新的大语言模型如ChatGPT都使用强化学习来做微调,而不是用之前大家所知道的有监督的学习。这是为什么呢?著名AI研究员Sebastian Raschka解释了这样一个很重要的转变。大约有5个原因促使了这一转变。

2023/03/01 20:56:271,671
#ChatGPT#RLHF
即将发布的装备了ChatGPT模型的新版bing都有哪些功能?

即将发布的装备了ChatGPT模型的新版bing都有哪些功能?

今天微软宣布,新版本的Bing将全线接入ChatGPT,试图领先谷歌一步。这篇博客将总结一下带了ChatGPT的新版本Bing将有哪些新功能!

2023/02/09 00:14:53961
#Bing#ChatGPT
OpenAI开源最新的3D物体生成预训练模型——Point-E

OpenAI开源最新的3D物体生成预训练模型——Point-E

三维物体的生成(3D)其实是AR/VR领域一个非常重要的技术。但是,受限于算力和现有模型的限制,三维物体的生成相比较图像生成来说效率太低。目前,最好的图像生成模型在几秒钟就可以根据文字生成图像结果,但是3D物体的生成通常需要多个GPU小时才可以生成一个对象。为此,OpenAI在今天开源了一个速度极快的3D物体生成模型——Point-E,需要注意的是,这是今年来OpenAI罕见的源代码和预训练结果都开源的一个模型。

2022/12/20 21:13:232,321
#3D生成#OpenAI
OpenAI发布最新Embedding模型——可惜又是一个收费API

OpenAI发布最新Embedding模型——可惜又是一个收费API

嵌入(Embedding)是深度学习方法处理自然语言文本最重要的方式之一。它将人类的自然语言和文本转换成一个浮点型的向量。向量之间的距离代表了它们的关系。今天,OpenAI宣布了他们的Embedding新模型——text-embedding-ada-002。官方宣称这是目前OpenAI最强的嵌入模型,可以将任意文本转换成一个向量,且效果好于目前所有OpenAI的模型。

2022/12/16 21:30:367,559
#Embedding#OpenAI
OpenAI开源GPT-2的子词标记化神器——tiktoken,一个超级快的(Byte Pair Encoder,BPE)字节对编码Python库

OpenAI开源GPT-2的子词标记化神器——tiktoken,一个超级快的(Byte Pair Encoder,BPE)字节对编码Python库

OpenAI在其官方GitHub上公开了一个最新的开源Python库:tiktoken,这个库主要是用力做字节对编码的。相比较HuggingFace的tokenizer,其速度提升了好几倍。

2022/12/16 21:11:164,524
#OpenAI#tokenizer
自然语言处理中常见的字节编码对(Byte-Pair Encoding,BPE)简介

自然语言处理中常见的字节编码对(Byte-Pair Encoding,BPE)简介

字节对编码(Byte Pair Encoder,BPE),又叫digram coding,是一种在自然语言处理领域经常使用的数据压缩算法。在GPT系列模型中都有用到。主要是将数据中最常连续出现的字节(bytes)替换成数据中没有出现的字节的方法。该算法首先由Philip Gage在1994年提出。在这篇博客中我们将简单介绍一下这个方法。

2022/12/16 20:52:274,900
#NLP#自然语言处理
0基础安装搭建Visual Studio Code开发环境——Python开发环境

0基础安装搭建Visual Studio Code开发环境——Python开发环境

Visual Studio Code简称VS Code,是由微软开发的跨平台免费开源的源代码编辑器。相比较Eclipse、PyCharm等软件,它很轻量,并不太像一个完整的IDE(Integrated Development Environment,集成开发环境)。但是,由于其轻量、快速、第三方扩展生态强大等原因,在2015年推出之后就迅速发展成为最受欢迎的开发环境。2019年的Stack Overflow的开发者调查中名列第一,使用占比月50.7%。

2022/12/10 16:58:052,672
#Python#VSCode
OpenAI是一家什么样的企业——OpenAI介绍与成果总结

OpenAI是一家什么样的企业——OpenAI介绍与成果总结

OpenAI是全球最著名的人工智能研究机构,发布了许多著名的人工智能技术和成果,如大语言模型GPT系列、文本生成图片预训练模型DALL·E系列、语音识别模型Whisper系列等。由于这些模型在各自领域都有相当惊艳的表现,引起了全世界广泛的关注。

2022/12/09 23:13:301,943
#OpenAI
Stable Diffusion2.1发布!

Stable Diffusion2.1发布!

刚刚,StabilityAI宣布Stable Diffusion2.1发布。距离Stable Diffusion2.0大版本发布刚2个星期,2.1版本就发布了,2.1版本有诸多改进功能。

2022/12/08 00:33:512,838
#StabilityAI#StableDiffusion
Previous
1...202122...40
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

Today's Picks

  • 介绍 AIME 2025:评估大型语言模型高级数学推理能力的基准
  • Kimi开源K2大模型:全球首个开源可商用的1万亿参数规模大模型,MoE架构,评测结果与DeepSeekV3相当,但模型文件有1TB!
  • LiveBench:一种抗污染的大型语言模型基准测试
  • 正则项的理解之正则从哪里来
  • 多元正态(高斯)分布的贝叶斯推导(Bayesian Inference for the Multivariate Normal)
  • 7种交叉验证(Cross-validation)技术简介(附代码示例)
  • Python编程环境搭建——小白起步教程!
没有显卡也没关系!基于Google Colab免费GPU额度部署Stable Diffusion XL模型,可以生成4K的图!