DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Original Blog

Original AI Tech Blogs

Explore the latest AI and LLM news and technical articles, covering original content and practical cases in machine learning, deep learning, and natural language processing.

Sort by
Sort by DateSort by Views
如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

本文是Replit工程师发表的训练自己的大语言模型的过程的经验和步骤总结。Replit是一家IDE提供商,它们训练LLM的主要目的是解决编程过程的问题。Replit在训练自己的大语言模型时候使用了Databricks、Hugging Face和MosaicML等提供的技术栈。这篇文章提供的都是一线的实际经验,适合ML/AI架构师以及算法工程师学习。

2023/04/24 22:35:152,462
#LLM#模型训练
网站开启支持https访问

网站开启支持https访问

2018/09/28 15:46:042,456
#web#编程
下拉列表和按钮

下拉列表和按钮

2018/10/01 21:48:082,453
#下拉列表#按钮
如何微调大语言模型?吴恩达联合LaminiAI最新一个小时短课教会大模型微调!这次是面向中级水平人员~

如何微调大语言模型?吴恩达联合LaminiAI最新一个小时短课教会大模型微调!这次是面向中级水平人员~

当谈及人工智能的巨大进步,大模型的崛起无疑是其中的一个重要里程碑。这些大模型,如GPT-3,已经展现出令人惊叹的语言生成和理解能力,但是为了让它们在特定任务上发挥最佳性能,大模型微调(Fine-tuning)是一种非常优秀的方法。微调是一种将预训练的大型模型进一步优化,以适应特定任务或领域的过程。但微调并不是很简单,今天吴恩达联合Lamini推出了全新的大模型微调短课《Finetuning Large Language Models》。

2023/08/24 16:35:112,440
#AI教程#LLM
有序列表,无序列表和定义列表

有序列表,无序列表和定义列表

2018/09/30 21:05:192,433
#列表
Python for Data Analysis第三版免费在线学习网站来临!

Python for Data Analysis第三版免费在线学习网站来临!

《Python for Data Analysis: Data Wrangling with pandas, NumPy, and Jupyter》是由Wes McKinney撰写的Python数据分析专业工具书籍。很容易理解,这本书就是教大家如何使用Pandas、NumPy以及Jupyter分析数据的。

2022/07/09 09:56:592,423
#python#编程书籍
一个简单的网页布局

一个简单的网页布局

2018/10/09 21:35:272,417
#网页布局
Java入门基础笔记-2

Java入门基础笔记-2

2018/09/22 10:00:392,402
#Java#入门
发现新大陆!(申请领地)

发现新大陆!(申请领地)

这是一个新大陆,有博客园,算法区,技术堡,论文馆,数据林,工具库。尽情畅游吧!

2019/07/23 14:57:492,400
#myself#newmainland
目前正在举办的机器学习相关的比赛

目前正在举办的机器学习相关的比赛

机器学习相关的竞赛为大家学习使用算法提供了一个非常好的平台和机会。既能检验大家学习的算法的实际应用情况,也可以帮助我们学习到很多有用的技巧。很多竞赛也都产生了优秀的算法思想与经验。所以积极参加比赛是一种非常重要的学习方式。本文总结目前正在举办的比赛,各位可以根据自己的情况参与。

2021/11/04 19:05:192,382
#机器学习#竞赛
Dask分布式任务中包含写文件的方法时候,程序挂起不结束的解决方案

Dask分布式任务中包含写文件的方法时候,程序挂起不结束的解决方案

使用Dask进行分布式处理的时候一个最常见的场景是有很多个文件,每个文件由一个进程处理。这种操作经常会遇到一个程序挂起的问题,使得程序永远运行,无法结束。本文描述如何解决。

2020/05/08 20:25:142,373
#dask#python
background综合属性

background综合属性

2018/10/15 21:04:042,366
#background
Java入门基础笔记-7

Java入门基础笔记-7

2018/09/22 19:56:552,364
#Java#入门
为什么GitHub要求文件的末尾必须有换行符?

为什么GitHub要求文件的末尾必须有换行符?

这几天逛reddit的时候发现了一个很有意思的讨论,有个童鞋说他在GitHub上提交代码的时候发现了提交文件被提示有一个红色警告的提示,鼠标移动上去会告诉你“No newline at end of file”(也就是文件末尾没有换行)。因此,他很奇怪,他不懂为什么GitHub要求文件的末尾必须有换行符。这个问题引起了很多的讨论。这里我也顺便记录共享一下。

2022/03/06 17:52:212,364
#Linux#Unix
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?

让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?

在大语言模型中,上下文长度是指模型可以考虑的输入数据的数量。更长的上下文在大语言模型的实际应用中有非常重要的价值。当前,让大语言模型支持更长的上下文有两种常用的方法,一种是训练支持更长上下文长度的模型,扩展模型的输入,另外一种是检索增强生成的方法(Retrieval Augmentation Generation,RAG)。但二者应该如何选择,这是一个很少能直接比较的问题。为此,英伟达(Nvidia)的研究人员做了一个详细的比较。

2023/10/10 15:28:482,363
#long-context#大语言模型
使用kaggle房价预测的实例说明预测算法中OneHotEncoder、LabelEncoder与OrdinalEncoder的使用及其差异

使用kaggle房价预测的实例说明预测算法中OneHotEncoder、LabelEncoder与OrdinalEncoder的使用及其差异

对于分类特征的处理,sklearn中常见的方法有两种,一种是OneHotEncoder,另一种很多人说是LabelEncoder,其实不对。sklearn中,还有一个OrdinalEncoder,二者似乎一样,但其实并不相同,差别很大。本文将用Kaggle的房价预测的实例来描述如何这些差异以及不同处理对预测算法的影响。

2021/11/19 00:37:562,361
#kaggle#sklearn
网页插入图片相对位置代码

网页插入图片相对位置代码

2018/09/29 20:04:222,353
#图片相对位置
Hugging Face发布最新的深度学习模型评估库Evaluate!

Hugging Face发布最新的深度学习模型评估库Evaluate!

就在儿童节前一天,Hugging Face发布了一个最新的深度学习模型评估库Evaluate。对于机器学习模型而言,评估是最重要的一个方面。但是Hugging Face认为当前模型评估方面非常分散且没有很好的文档。导致评估十分困难。因此,Hugging Face发布了这样一个Python的库,用以简化大家评估的步骤与时间。

2022/06/01 11:14:402,345
#huggingface#模型评价
吴恩达的LandingAI究竟是一家什么样的创业公司

吴恩达的LandingAI究竟是一家什么样的创业公司

吴恩达是人工智能领域非常著名的人物。2011年在谷歌创建的谷歌大脑项目,震惊了全世界。2014年他加入百度负责百度大脑计划,并于2017年离职。离职之后他创建了人工智能公司LandingAI,并担任首席执行官。昨天吴恩达宣布他新成立的这家公司已经募集到5,700万美金。本文主要简单介绍这家公司的业务。

2021/11/10 21:22:462,339
#人工智能#企业简介
清除浮动的几种方法

清除浮动的几种方法

2018/10/10 22:29:392,338
#清除浮动
突破英特尔CPU+英伟达GPU的大模型训练硬件组合:苹果与AMD都有新进展!

突破英特尔CPU+英伟达GPU的大模型训练硬件组合:苹果与AMD都有新进展!

大语言模型的训练和微调的硬件资源要求很高。现行主流的大模型训练硬件一般采用英特尔的CPU+英伟达的GPU进行。主要原因在于二者提供了符合大模型训练所需的计算架构和底层的加速库。但是,最近苹果M2 Ultra和AMD的显卡进展让我们看到了一些新的希望。

2023/07/02 23:08:462,328
#大模型训练#生态
OpenAI发布新一代向量大模型,接口已经更新到text-embedding-3-large,embedding长度升级,价格最高下降5倍!

OpenAI发布新一代向量大模型,接口已经更新到text-embedding-3-large,embedding长度升级,价格最高下降5倍!

决定向量检索准确性的核心是向量大模型的能力,即文本转成embedding向量是否准确。今天,OpenAI宣布了他们第三代向量大模型text-embedding,模型能力增强的同时价格下降!

2024/01/26 14:40:342,325
#OpenAI#text-embedding-3
几个css3选择器

几个css3选择器

2018/10/05 21:02:262,315
#css3选择器
Google发布面试辅助工具Interview Warmup帮助我们理解谷歌面试内容

Google发布面试辅助工具Interview Warmup帮助我们理解谷歌面试内容

最近,谷歌发布了一项新的工具:Google Interview Warmup,让你练习回答由行业专家选定的问题,并使用机器学习来转录你的答案,帮助你发现改进面试的回答。

2022/09/24 21:36:332,305
#谷歌#面试
Previous
1...181920...39
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8H5文件简介和使用

Today's Picks

  • Sequence-to-Sequence model
  • TorchVision最新0.13版本发布!
  • Topic model相关文章汇总
  • 贝叶斯分析推断的一些基础知识
  • MBA与数据分析师危矣?最新内测版本的ChatGPT已经可以针对excel自动做数据分析和异常分析了!
  • 腾讯发布了一个全新的大模型Hunyuan Turbo S:号称评测效果超过GTP-4o和DeepSeek V3等模型,但没有开源或者放开使用
  • 重回第一!OpenAI升级GPT-4-Turbo到2024-04-09版本(gpt-4-turbo-2024-04-09),GPT-4推理和数学能力大幅提高,基准测试最高有接近20%的提升!
  • DocVQA:文档视觉问答基准详解