DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Original Blog

Original AI Tech Blogs

Explore the latest AI and LLM news and technical articles, covering original content and practical cases in machine learning, deep learning, and natural language processing.

Sort by
Sort by DateSort by Views
CNN经典算法之Inception V1(GoogLeNet)

CNN经典算法之Inception V1(GoogLeNet)

GoogLeNet是谷歌在2014年提出的一种CNN深度学习方法,它赢得了2014年ILSVRC的冠军,其错误率要低于当时的VGGNet。与之前的深度学习网络思路不同,之前的CNN网络的主要目标还是加深网络的深度,而GoogLeNet则提出了一种新的结构,称之为inception。GoogLeNet利用inception结构组成了一个22层的巨大的网络,但是其参数却比之前的如AlexNet网络低很多。是一种非常优秀的CNN结构。

2019/05/31 20:22:255,018
#GoogLeNet#Inception
CNN经典算法VGGNet介绍

CNN经典算法VGGNet介绍

VGGNet(Visual Geometry Group)是2014年又一个经典的卷积神经网络。VGGNet最主要的目标是试图回答“如何设计网络结构”的问题。随着AlexNet提出,很多人开始利用卷积神经网络来解决图像识别的问题。一般的做法都是重复几层卷积网络,每个卷积网络之后接一些池化层,最后再加上几个全连接层。而VGGNet的提出,给这些结构设计带来了一些标准参考。

2019/05/28 21:05:448,051
#卷积神经网络#深度学习
CNN入门算法LeNet-5介绍(论文详细解读)

CNN入门算法LeNet-5介绍(论文详细解读)

1998年,LeCun提出了LeNet-5网络用来解决手写识别的问题。LeNet-5被誉为是卷积神经网络的“Hello Word”,足以见到这篇论文的重要性。在此之前,LeCun最早在1989年提出了LeNet-1,并在接下来的几年中继续探索,陆续提出了LeNet-4、Boosted LeNet-4等。本篇博客将详解LeCun的这篇论文,并不是完全翻译,而是总结每一部分的精华内容。

2019/05/26 22:21:2015,849
#卷积神经网络#深度学习
 Keras框架下输出模型中间层学习到的表示的两种常用方式

Keras框架下输出模型中间层学习到的表示的两种常用方式

深度学习本质上是表示学习,它通过多层非线性神经网络模型从底层特征中学习出对具体任务而言更有效的高级抽象特征。针对一个具体的任务,我们往往会遇到这种情况:需要用一个模型学习出特征表示,然后将学习出的特征表示作为另一个模型的输入。这就要求我们会获取模型中间层的输出,下面以具体代码形式介绍两种具体方法。

2019/04/10 20:26:103,219
#Keras#中间层表示
中文停用词表和英文停用词表

中文停用词表和英文停用词表

中文停用词表和英文停用词表

2019/03/27 21:21:036,278
#中文停用词表和英文停用词表
端到端(end-to-end)学习

端到端(end-to-end)学习

端到端(end-to-end)学习

2019/03/27 21:20:373,345
#端到端(end-to-end)学习
模型中的参数和超参数

模型中的参数和超参数

模型中的参数和超参数

2019/03/27 21:20:133,235
#模型中的参数和超参数
Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

2019/03/27 21:19:463,154
#Keras框架下的保存模型和加载模型
Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

2019/03/27 21:19:217,431
#Keras中predict()方法和predict_classes()方法的区别
Sequence-to-Sequence model

Sequence-to-Sequence model

Sequence-to-Sequence model

2019/03/27 21:18:523,503
#Sequence-to-Sequencemodel
TensorFlow学习——基本概念(1)

TensorFlow学习——基本概念(1)

TensorFlow基本概念

2019/03/27 21:18:223,127
#TensorFlow基本概念
tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

2019/03/27 21:17:484,466
#tensorflow#tf.nn.softmax_cross_entropy_with_logits函数
pandas的一些使用技巧

pandas的一些使用技巧

pandas的使用

2019/03/27 21:16:542,984
#pandas#Python
Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required

2019/03/27 21:15:193,111
#MicrosoftVisualC++14.0isrequired#python
网络爬虫存储数据的三种常见方式及其python实现

网络爬虫存储数据的三种常见方式及其python实现

网络爬虫

2019/03/27 21:14:293,512
#excel#Python
用python生成随机数的几种方法

用python生成随机数的几种方法

本篇博客主要讲解如何从给定参数的的正态分布/均匀分布中生成随机数以及如何以给定概率从数字列表抽取某数字或从区间列表的某一区间内生成随机数,按照内容将博客分为3部分,并附上代码。

2019/03/27 21:13:175,200
#Python#随机数生成
用python绘制散点图

用python绘制散点图

如何使用python绘制简单的散点图

2019/03/27 21:13:006,163
#Python#散点图
深度学习之GRU神经网络

深度学习之GRU神经网络

之前面的博客中,我们已经描述了基本的RNN模型。但是基本的RNN模型有一些缺点难以克服。其中梯度消失问题(Vanishing Gradients)最难以解决。为了解决这个问题,GRU(Gated Recurrent Unit)神经网络应运而生。本篇博客将描述GRU神经网络的工作原理。GRU主要思想来自下面两篇论文:

2019/03/23 15:34:2811,061
#GRU#RNN
深度学习之LSTM模型

深度学习之LSTM模型

在前面的博客中,我们已经介绍了基本的RNN模型和GRU深度学习网络,在这篇博客中,我们将介绍LSTM模型,LSTM全称是Long Short-Time Memory,也是RNN模型的一种。

2019/03/23 15:34:009,726
#LSTM#RNN
8个非常好的NLP领域的预训练模型(包含代码和论文资源)

8个非常好的NLP领域的预训练模型(包含代码和论文资源)

使用预训练模型处理NLP任务是目前深度学习中一个非常火热的领域。本文总结了8个顶级的预训练模型,并提供了每个模型相关的资源(包括官方文档、Github代码和别人已经基于这些模型预训练好的模型等)。

2019/03/23 12:27:4911,231
#NLP#PretrainedModel
深度学习之Attention机制

深度学习之Attention机制

Encoder-Decoder的深度学习架构是目前非常流行的神经网络架构,在许多的任务上都取得了很好的成绩。在之前的博客中,我们也详细介绍了该架构(参见深度学习之Encoder-Decoder架构)。本篇博客将详细讲述Attention机制。

2019/03/21 11:32:026,347
#Attention#RNN
深度学习之Encoder-Decoder架构

深度学习之Encoder-Decoder架构

深度学习中Sequence to Sequence (Seq2Seq) 模型的目标是将一个序列转换成另一个序列。包括机器翻译(machine translate)、会话识别(speech recognition)和时间序列预测(time series forcasting)等任务都可以理解成是Seq2Seq任务。RNN(Recurrent Neural Networks)是深度学习中最基本的序列模型。

2019/03/19 11:19:0413,341
#Encoder-Decoder#RNN
深度学习之RNN模型

深度学习之RNN模型

序列数据是生活中很常见的一种数据,如一句话、一段时间某个广告位的流量、一连串运动视频的截图等。在这些数据中也有着很多数据挖掘的需求。RNN就是解决这类问题的一种深度学习方法。其全称是Recurrent Neural Networks,中文是递归神经网络。主要解决序列数据的数据挖掘问题。

2019/03/15 10:57:1215,637
#RNN#深度学习
Python中的Pickle操作(pkl文件解释)

Python中的Pickle操作(pkl文件解释)

您刚刚经历了一个耗时的过程,将一堆数据加载到python对象中。 也许你从数千个网站上爬取了数据。也许你计算了pi的数值。如果您的笔记本电脑电池耗尽或python崩溃,您的信息将丢失。 Pickling允许您将python对象保存为硬盘驱动器上的二进制文件。 在你pickle你的对象后,你可以结束你的python会话,重新启动你的计算机,然后再次将你的对象加载到python中。

2019/03/11 16:43:5524,695
#python#序列化
Previous
1...282930...39
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8H5文件简介和使用

Today's Picks

  • Google DeepMind 发布 EmbeddingGemma:面向端侧的多语言开源向量模型(308M),小体量也能打
  • 二叉树(Binary Tree)
  • Terminal-Bench 评测全解析:一个用于评测大模型在终端环境使用工具能力的评测基准以及Terminal 1.0与 2.0 的完整对比
  • 国产大模型进展神速!清华大学NLP小组发布顶尖多模态大模型:VisCPM,支持文本生成图片与多模态对话,图片理解能力优秀!
  • Scale AI 发布 SWE-Bench Pro 评测:AI 软件工程代理的新基准
  • 开源可商用大模型再添重磅玩家——StabilityAI发布开源大语言模型StableLM
  • Claude Code 的独特体验:Claude Code 为什么这么好用?从设计细节看下一代 LLM Agent 的范式
  • HuggingFace过去七天最流行的AI模型一览——预训练大模型绝对王者