DataLearner 标志DataLearnerAI
AI技术博客
大模型评测排行
大模型评测基准
AI大模型大全
AI资源仓库
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
最新好课!从深度学习到stable diffusion的手把手入门教程

最新好课!从深度学习到stable diffusion的手把手入门教程

Stable Diffusion是最近很火的Text-to-Image预训练模型(详细信息:https://www.datalearner.com/ai-resources/pretrained-models/stable-diffusion )。而现在,相关的视频教程已经出现。fast.ai的团队宣布了一门新的深度学习课程《From Deep Learning Foundations to Stable Diffusion》上线!

2022/09/24 10:01:173,023
#text-to-image#深度学习课程
OpenAI第二代DALL·E发布,可以使用自然语言创造和编辑图片的模型

OpenAI第二代DALL·E发布,可以使用自然语言创造和编辑图片的模型

今天,时隔一年后,OpenAI发布了第二代的DALL·E模型。相比较第一代的模型,DALL·E 2,以4倍的分辨率生成更真实和准确的图像。

2022/04/06 23:25:383,012
#OpenAI#语言模型
“GPT”的模型太多无法选择?让大模型帮你选择大模型!浙江大学发布HuggingGPT!

“GPT”的模型太多无法选择?让大模型帮你选择大模型!浙江大学发布HuggingGPT!

随着ChatGPT的火爆以及MetaAI开源了LLaMA,各家公司好像一夜之间都有了各种ChatGPT模型的研发实力。而针对不同任务和应用构建的LLM更是层出不穷。那么,如何选择合适的模型完成特定的任务,甚至是使用多个模型完成一个复杂的任务似乎仍然很困难。为此,浙江大学与微软亚洲研究院联合发布了一个大模型写作系统HuggingGPT,可以根据输入的任务帮我们选择合适的大模型解决!

2023/04/24 22:46:063,002
#HuggingGPT#LLM
eclispe常见错误及其解决方案

eclispe常见错误及其解决方案

eclipse创建导入项目的时候经常会发生各种错误。本篇博客将讲述常见的错误及其解决方案。

2017/10/18 15:15:002,998
#eclipse#maven
基于java的网络爬虫框架(实现京东数据的爬取,并将插入数据库)

基于java的网络爬虫框架(实现京东数据的爬取,并将插入数据库)

基于java的网络爬虫框架

2016-09-09 08:32:122,985
#java#网络爬虫
pandas的一些使用技巧

pandas的一些使用技巧

pandas的使用

2019/03/27 21:16:542,985
#pandas#Python
从阿里专家内部交流纪要看国内AI模型发展现状

从阿里专家内部交流纪要看国内AI模型发展现状

本文主要描述了阿里眼中国内各家企业的大模型水平以及一些硬件算力的判断,同时结合部分其它信息整理。里面涉及到当前国内各大企业模型水平判断(如百度文心一言、华为盘古等)以及算力储备信息。

2023/04/24 22:44:342,981
#大模型#显卡
不同参数规模大语言模型在不同微调方法下所需要的显存总结

不同参数规模大语言模型在不同微调方法下所需要的显存总结

大模型的微调是当前很多人都在做的事情。微调可以让大语言模型适应特定领域的任务,识别特定的指令等。但是大模型的微调需要的显存较高,而且比较难以估计。与推理不同,微调过程微调方法的选择以及输入序列的长度、批次大小都会影响微调显存的需求。本文根据LLaMA Factory的数据总结一下大模型微调的显存要求。

2023/12/22 22:12:582,980
#大模型微调#微调显存
一个基于Python的机器学习项目——各种Kaggle比赛的解决方案

一个基于Python的机器学习项目——各种Kaggle比赛的解决方案

2019/11/03 12:02:162,973
#<span class='blog_tag'><a href='blog_list#tag
2023年4月业界发布的重要20多个AI模型总结:OpenAssistant、Segment Anything Model、StableLM、AudioGPT等

2023年4月业界发布的重要20多个AI模型总结:OpenAssistant、Segment Anything Model、StableLM、AudioGPT等

2022年11月底,OpenAI发布ChatGPT,2023年3月14日,GPT-4发布。这两个模型让全球感受到了AI的力量。而随着MetaAI开源著名的LLaMA,以及斯坦福大学提出Stanford Alpaca之后,业界开始有更多的AI模型发布。本文将对4月份发布的这些重要的模型做一个总结,并就其中部分重要的模型进行进一步介绍。

2023/05/17 20:32:402,957
#2023年4月份AI模型#AI模型月报
MySQL调优之SQL语句优化

MySQL调优之SQL语句优化

SQL语句优化

2016-04-05 11:08:232,953
#mysqlsql语句
主题模型结合词向量模型(Improving Topic Models with Latent Feature Word Representations)

主题模型结合词向量模型(Improving Topic Models with Latent Feature Word Representations)

2018/03/07 20:24:132,938
#词向量
Saleforce发布最新的开源语言-视觉处理深度学习库LAVIS

Saleforce发布最新的开源语言-视觉处理深度学习库LAVIS

Salesforce的研究人员开发了LAVIS(LAnguage-VISION的缩写),这是一个开源的库,用于在丰富的常见任务和数据集系列上训练和评估最先进的语言-视觉模型,并用于在定制的语言-视觉数据上进行现成的推理。

2022/09/25 08:25:062,935
#数据集#深度学习
为初学者、中级和有经验的开发者提供70多个python项目

为初学者、中级和有经验的开发者提供70多个python项目

为初学者、中级和有经验的开发者提供70多个python项目, 10000, 小木, PythonHub今天在推上给大家分享了一个非常棒的项目,就是这个为为初学者、中级和有经验的开发者提供70多个python项目。 亲自动手实践一些项目可以增加我们的实际的编程技巧。每一次都做一点将会得到很多。很多人都在GitHub、Reddit或者是Quera上搜索过哪些项目可以让Python初学者、中级者增加经验的Python项目。这次它来了。

2021/06/14 20:13:132,931
#python#编程
dask的dataframe的值变成1和foo的解决方法

dask的dataframe的值变成1和foo的解决方法

2020/05/08 14:30:532,917
#dask#python
网络爬虫之httpclient的使用

网络爬虫之httpclient的使用

网络爬虫之httpclient的使用

2016-09-08 22:11:342,915
#httpclient#Java
强烈推荐!清华大学100亿参数规模的免费商用授权大模型:CPM-Bee 10B

强烈推荐!清华大学100亿参数规模的免费商用授权大模型:CPM-Bee 10B

最近几个月,国产大语言模型进步十分迅速。不过,大多数企业发布的大模型均为商业产品,少数开源的LLM则有较高的商业授权费用或者商用限制。对于希望使用LLM能力的中小企业以及个人来说都不是很合适。本次给大家介绍的是目前国产开源领域里面一个十分优秀且具有潜力的大语言模型CPM-Bee 10B。该模型来自清华大学NLP实验室,参数规模100亿,最重要的是对个人和企业用户均提供免费商用授权,十分友好!

2023/06/28 23:33:082,908
#CPM-Bee#国产大模型
网络爬虫原理

网络爬虫原理

网络爬虫指按照一定的规则(模拟人工登录网页的方式),自动抓取网络上的程序。

2016-09-08 22:03:062,897
#java#网络爬虫
强烈推荐斯坦福大学的深度学习示意图网站

强烈推荐斯坦福大学的深度学习示意图网站

CS 230 ― Deep Learning是斯坦福大学视觉实验室(Stanford Vision Lab)的Shervine Amidi老师开设的深度学习课程,他在课程网站上挂了一个关于深度学习示意图的网站,这里面包含了各种深度学习相关概念的示意图和动图,十分简单明了。

2022/04/20 23:19:192,890
#深度学习
《Effective Java 第三版》笔记之七 消除过期的对象引用

《Effective Java 第三版》笔记之七 消除过期的对象引用

本文是Effective Java第三版笔记的第七个之消除过期的对象引用,Item 7: Eliminate obsolete object references

2018/09/28 15:44:232,885
#effectivejava#java
Falcon-40B:截止目前最强大的开源大语言模型,超越MetaAI的LLaMA-65B的开源大语言模型

Falcon-40B:截止目前最强大的开源大语言模型,超越MetaAI的LLaMA-65B的开源大语言模型

昨天,HuggingFace的大语言模型排行榜上突然出现了一个评分超过LLaMA-65B的大语言模型:Falcon-40B,引起了广泛的关注。本文将简要的介绍一下这个模型。截止2023年5月27日,Falcon-40B模型(400亿参数)在推理、理解等4项Open LLM Leaderloard任务上评价得分第一,超过了之前最强大的LLaMA-65B模型。

2023/05/27 22:11:322,871
#Falcon-40B#LLM
LFDMM源码剖析(融入词向量的概率图模型)

LFDMM源码剖析(融入词向量的概率图模型)

源码

2018/03/27 14:48:372,864
#源码
深度学习模型训练将训练批次(batch)设置为2的指数是否有实际价值?

深度学习模型训练将训练批次(batch)设置为2的指数是否有实际价值?

在深度学习训练中,由于数据太大,现在的训练一般是按照一个批次的数据进行训练。批次大小(batch size)的设置在很多论文或者教程中都提示要设置为$2^n$,例如16、32等,这样可能会在现有的硬件中获得更好的性能。但是,目前似乎没有人进行过实际的测试,例如32的batch size与33的batch size性能到底有多大差别?德国的Thomas Bierhance做了一系列实验,以验证批次大小设置为2的幂次方是不是真的可以加速。

2022/07/05 22:28:322,861
#深度学习#训练技术
常见的正则表达式写法总结

常见的正则表达式写法总结

正则表达式非常有用,非常强大,但也并不容易写,在这里我们总结一些常用的正则表达式写法

2017/11/18 09:20:502,854
#java#正则表达式
上一页
1...141516...39
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8H5文件简介和使用

今日推荐

  • 深度学习之GRU神经网络
  • Ubuntu 命令行 指定GPU 运行 Python 程序
  • 预训练大模型时代必备技能——Prompt Tuning简介
  • Qwen1.5系列再次更新:阿里巴巴开源320亿参数Qwen1.5-32B模型,评测结果超过Mixtral 8×7B MoE,性价比更高!
  • Python之numpy.argpartition
  • HMC(Hamiltonian Monte Carlo抽样算法详细介绍)
  • LFDMM源码剖析(融入词向量的概率图模型)
端到端(end-to-end)学习