DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
工具
语言中文

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客/
  3. 标签:模型/
  4. 第12页
标签

「模型」相关文章(第12页)

汇总「模型」相关的原创 AI 技术文章与大模型实践笔记,持续更新。

标签:#模型
6张示意图解释6种语言模型(Language Transformer)使用方式

6张示意图解释6种语言模型(Language Transformer)使用方式

近几年语言模型的发展速度很快,各种大语言预训练模型的推出让算法在各种NLP的任务中都取得了前所未有的成绩。其中2017年谷歌发布的Attention is All You Need论文将transformer架构推向了世界,这也是现在最流行的语言模型结构。威斯康星大学麦迪逊分校的统计学教授Sebastian Raschka总结了6中Language Transformer的使用方法。值得一看。

2022/11/06 11:56:311,847
#transformer#预训练模型
扩散模型是如何工作的:从0开始的数学原理——How diffusion models work: the math from scratch

扩散模型是如何工作的:从0开始的数学原理——How diffusion models work: the math from scratch

随着DALL·E2的发布,大家发现Text-to-Image居然可以取得如此好的效果。也让diffusion模型变得非常受欢迎。扩散模型虽然火热,但是背后的数学原理可能很多人也不太了解。这篇博客不仅介绍了扩散模型背后的数学原理,也讲述了如何训练扩散模型以及提高扩散模型训练效率的种种技巧,十分值得大家钻研。

2022/10/05 17:46:248,624
#DALLE#StableDiffusion
不更改一行AI模型的代码加速你的模型训练过程——AI模型训练加速库Nebulgym简介

不更改一行AI模型的代码加速你的模型训练过程——AI模型训练加速库Nebulgym简介

前几天初创AI企业Nebuly开源了一个AI加速库nebulgym,它最大的特点是不更改你现有AI模型的代码,但是可以将训练速度提升2倍。

2022/06/17 09:06:511,389
#AI训练#模型加速
简单几步教你如何在搭建并使用DALL·E开源版本来基于文字生成图片

简单几步教你如何在搭建并使用DALL·E开源版本来基于文字生成图片

大规模的text-to-image模型没有公开预训练结果,OpenAI的意思就是我这玩意太厉害,随便放出来可能会被你们做坏事,而谷歌训练这个应该就是为了云服务挣钱,所以都没有公开可用的版本供大家玩耍。虽然业界有基于论文的实现,但是训练模型需要耗费大量的资源,没有开放的预训练结果,我们普通个人也很难玩起来。但是,大神Sahar提供了一个免费使用开源实现的text-to-image预训练模型的方式。

2022/06/12 18:44:5311,638
#Text-To-Image#图片生成
Hugging Face发布最新的深度学习模型评估库Evaluate!

Hugging Face发布最新的深度学习模型评估库Evaluate!

就在儿童节前一天,Hugging Face发布了一个最新的深度学习模型评估库Evaluate。对于机器学习模型而言,评估是最重要的一个方面。但是Hugging Face认为当前模型评估方面非常分散且没有很好的文档。导致评估十分困难。因此,Hugging Face发布了这样一个Python的库,用以简化大家评估的步骤与时间。

2022/06/01 11:14:402,469
#huggingface#模型评价
XLNet基本思想简介以及为什么它优于BERT

XLNet基本思想简介以及为什么它优于BERT

前几天刚刚发布的XLNet彻底火了,原因是它在20多项任务中超越了BERT。这是一个非常让人惊讶的结果。之前我们也说过,在斯坦福问答系统中,XLNet也取得了目前单模型第一的成绩(总排名第四,前三个模型都是集成模型)。

2022/05/12 22:52:337,086
#深度学习#论文快讯
Unifying Language Learning Paradigms——谷歌的一个模型打天下

Unifying Language Learning Paradigms——谷歌的一个模型打天下

如今,自然语言处理的预训练模型被广泛运用在各个领域。各大企业和组织都在追求各种大型的预训练模型。但是当你问我们应该使用哪一个预训练模型来解决问题的时候,通常没有统一的答案,一般来说它取决于下游的任务,也就是说需要根据任务类型来选择模型。 而谷歌认为这不是一个正确的方向,因此,本周,谷歌提出了一个新的NLP预训练模型框架——Unifying Language Learning Paradigms(简称UL2)来尝试使用一个模型解决多种任务。

2022/05/12 22:50:302,571
#论文快讯#通用预训练模型
OpenAI第二代DALL·E发布,可以使用自然语言创造和编辑图片的模型

OpenAI第二代DALL·E发布,可以使用自然语言创造和编辑图片的模型

今天,时隔一年后,OpenAI发布了第二代的DALL·E模型。相比较第一代的模型,DALL·E 2,以4倍的分辨率生成更真实和准确的图像。

2022/04/06 23:25:383,115
#OpenAI#语言模型
Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型

Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型

今天,Google介绍了一个新的语言模型,一个Pathways语言模型:PaLM,这是一个用Pathways系统训练的5400亿个参数、仅有dense decoder的Transformer模型,在数百个语言理解和生成任务上对PaLM进行了评估,发现它在大多数任务中实现了最先进的性能,在许多情况下都有显著的优势。

2022/04/05 11:13:041,462
#论文快讯#语言模型
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models

大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models

3月29日,DeepMind发表了一篇论文,"Training Compute-Optimal Large Language Models",表明基本上每个人--OpenAI、DeepMind、微软等--都在用极不理想的计算方式训练大型语言模型。论文认为这些模型对计算的使用一直处于非常不理想的状态。并提出了新的模型缩放规律。

2022/04/04 13:14:092,967
#deepmind#论文快讯
隐马尔科夫模型及其在NLP中的应用指南

隐马尔科夫模型及其在NLP中的应用指南

隐马尔可夫模型(HMM)是一种统计模型,也用于机器学习。它可以用来描述取决于内部因素的可观察事件的演变,而这些因素是无法直接观察到的。这是一类概率图形模型,允许我们从一组观察到的变量中预测一串未知的变量。在这篇文章中,我们将详细讨论隐马尔可夫模型。我们将了解它可以使用的背景,我们也将讨论它的不同应用。我们还将讨论HMM在PoS标签中的使用和python的实现。文章中所涉及的主要内容如下。

2021/10/17 15:53:453,158
#HMM#机器学习
模型中的参数和超参数

模型中的参数和超参数

模型中的参数和超参数

2019/03/27 21:20:133,321
#模型中的参数和超参数
Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

2019/03/27 21:19:463,238
#Keras框架下的保存模型和加载模型
变分推断之高斯混合模型(案例及代码)

变分推断之高斯混合模型(案例及代码)

变分推断以及高斯混合模型应用

2019/02/14 15:44:168,496
#变分推断#高斯混合模型
盒模型

盒模型

2018/10/07 22:17:022,633
#盒模型
主题模型聚类匹配2018TKDE阅读笔记(Topic Models for Unsupervised Cluster Matching)

主题模型聚类匹配2018TKDE阅读笔记(Topic Models for Unsupervised Cluster Matching)

主题模型聚类匹配

2018/04/24 16:48:573,115
#主题模型聚类匹配
对比关系生成模型(Comparative Relation Generative Model)

对比关系生成模型(Comparative Relation Generative Model)

2018/03/09 09:00:212,843
#生成模型
高斯混合模型(GMM)

高斯混合模型(GMM)

高斯混合模型是一个参数概率密度函数,它是一组高斯密度函数的加权求和。在生物统计领域,高斯混合模型通常是连续测度或者特征的概率分布的参数模型。高斯混合模型可以使用迭代的EM算法或者最大后验概率法估计参数。

2017/11/30 15:57:0411,217
#混合模型#统计
Topic model相关文章汇总

Topic model相关文章汇总

2017/11/15 08:42:593,237
#主题模型
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)

Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)

Dirichlet过程是一个随机过程,在非参数贝叶斯模型中有广泛运用,最常见的应用是Dirichlet过程混合模型

2017/11/14 15:06:41104,041
#Dirichlet分布#Dirichlet过程
回归模型中的交互项简介(Interactions in Regression)

回归模型中的交互项简介(Interactions in Regression)

在回归模型中加入交互项是一种非常常见的处理方式。它可以极大的拓展回归模型对变量之间的依赖的解释。本篇博客将简要介绍这个交互项。

2017/10/16 20:58:09100,056
#交互项#回归模型
Targeted Topic Modeling for Focused Analysis(TTM的理解)

Targeted Topic Modeling for Focused Analysis(TTM的理解)

2017/05/08 21:39:002,680
#主题模型
推荐模型:显式反馈模型VS隐式反馈模型

推荐模型:显式反馈模型VS隐式反馈模型

推荐中,有研究explict feedback,有研究implict feedback,今天就来谈谈这两种基本模型是怎么建的?其实,都是套路~

2017/03/09 14:22:126,069
#显式反馈模型#隐式反馈模型
狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)

狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)

狄利克雷过程混合模型(Dirichlet Process Mixture Model, DPMM)是一种非参数贝叶斯模型,它可以理解为一种聚类方法,但是不需要指定类别数量,它可以从数据中推断簇的数量。这篇博客将描述该模型及其求解过程。

2016-08-19 18:04:5623,644
#dirichletprocessmixturemodel#dpmm
上一页
1...111213...19
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • SWE-bench Verified:提升 AI 模型在软件工程任务评估中的可靠性
  • SCI已经被SCIE替代
  • PandasTutor——一个用于可视化pandas操作的神器
  • 0基础基于Node.js创建第一个Vue的web项目
  • 能否用85000美元从头开始训练一个打败ChatGPT的模型,并在浏览器中运行?
  • Unifying Language Learning Paradigms——谷歌的一个模型打天下
  • OpenAI最新的推理大模型o1与GPT-4o有什么区别?o1一定比o1 mini更强吗?一文总结OpenAI对o1模型的官方答疑
对比关系生成模型(Comparative Relation Generative Model)