DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Original Blog

Original AI Tech Blogs

Explore the latest AI and LLM news and technical articles, covering original content and practical cases in machine learning, deep learning, and natural language processing.

Sort by
Sort by DateSort by Views
用python生成随机数的几种方法

用python生成随机数的几种方法

本篇博客主要讲解如何从给定参数的的正态分布/均匀分布中生成随机数以及如何以给定概率从数字列表抽取某数字或从区间列表的某一区间内生成随机数,按照内容将博客分为3部分,并附上代码。

2019/03/27 21:13:175,199
#Python#随机数生成
网络爬虫存储数据的三种常见方式及其python实现

网络爬虫存储数据的三种常见方式及其python实现

网络爬虫

2019/03/27 21:14:293,512
#excel#Python
Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required

2019/03/27 21:15:193,108
#MicrosoftVisualC++14.0isrequired#python
pandas的一些使用技巧

pandas的一些使用技巧

pandas的使用

2019/03/27 21:16:542,983
#pandas#Python
tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

2019/03/27 21:17:484,462
#tensorflow#tf.nn.softmax_cross_entropy_with_logits函数
TensorFlow学习——基本概念(1)

TensorFlow学习——基本概念(1)

TensorFlow基本概念

2019/03/27 21:18:223,127
#TensorFlow基本概念
Sequence-to-Sequence model

Sequence-to-Sequence model

Sequence-to-Sequence model

2019/03/27 21:18:523,502
#Sequence-to-Sequencemodel
Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

2019/03/27 21:19:217,429
#Keras中predict()方法和predict_classes()方法的区别
Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

2019/03/27 21:19:463,154
#Keras框架下的保存模型和加载模型
模型中的参数和超参数

模型中的参数和超参数

模型中的参数和超参数

2019/03/27 21:20:133,233
#模型中的参数和超参数
端到端(end-to-end)学习

端到端(end-to-end)学习

端到端(end-to-end)学习

2019/03/27 21:20:373,345
#端到端(end-to-end)学习
中文停用词表和英文停用词表

中文停用词表和英文停用词表

中文停用词表和英文停用词表

2019/03/27 21:21:036,276
#中文停用词表和英文停用词表
 Keras框架下输出模型中间层学习到的表示的两种常用方式

Keras框架下输出模型中间层学习到的表示的两种常用方式

深度学习本质上是表示学习,它通过多层非线性神经网络模型从底层特征中学习出对具体任务而言更有效的高级抽象特征。针对一个具体的任务,我们往往会遇到这种情况:需要用一个模型学习出特征表示,然后将学习出的特征表示作为另一个模型的输入。这就要求我们会获取模型中间层的输出,下面以具体代码形式介绍两种具体方法。

2019/04/10 20:26:103,217
#Keras#中间层表示
CNN入门算法LeNet-5介绍(论文详细解读)

CNN入门算法LeNet-5介绍(论文详细解读)

1998年,LeCun提出了LeNet-5网络用来解决手写识别的问题。LeNet-5被誉为是卷积神经网络的“Hello Word”,足以见到这篇论文的重要性。在此之前,LeCun最早在1989年提出了LeNet-1,并在接下来的几年中继续探索,陆续提出了LeNet-4、Boosted LeNet-4等。本篇博客将详解LeCun的这篇论文,并不是完全翻译,而是总结每一部分的精华内容。

2019/05/26 22:21:2015,847
#卷积神经网络#深度学习
CNN经典算法VGGNet介绍

CNN经典算法VGGNet介绍

VGGNet(Visual Geometry Group)是2014年又一个经典的卷积神经网络。VGGNet最主要的目标是试图回答“如何设计网络结构”的问题。随着AlexNet提出,很多人开始利用卷积神经网络来解决图像识别的问题。一般的做法都是重复几层卷积网络,每个卷积网络之后接一些池化层,最后再加上几个全连接层。而VGGNet的提出,给这些结构设计带来了一些标准参考。

2019/05/28 21:05:448,050
#卷积神经网络#深度学习
CNN经典算法之Inception V1(GoogLeNet)

CNN经典算法之Inception V1(GoogLeNet)

GoogLeNet是谷歌在2014年提出的一种CNN深度学习方法,它赢得了2014年ILSVRC的冠军,其错误率要低于当时的VGGNet。与之前的深度学习网络思路不同,之前的CNN网络的主要目标还是加深网络的深度,而GoogLeNet则提出了一种新的结构,称之为inception。GoogLeNet利用inception结构组成了一个22层的巨大的网络,但是其参数却比之前的如AlexNet网络低很多。是一种非常优秀的CNN结构。

2019/05/31 20:22:255,012
#GoogLeNet#Inception
深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)

深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)

卷积操作的维度计算是定义神经网络结构的重要问题,在使用如PyTorch、Tensorflow等深度学习框架搭建神经网络的时候,对每一层输入的维度和输出的维度都必须计算准确,否则容易出错,这里将详细说明相关的维度计算。

2019/05/31 20:27:0719,992
#PyTorch#卷积神经网络
深度学习的经典算法的论文、解读和代码实现

深度学习的经典算法的论文、解读和代码实现

深度学习是目前最火的算法领域。他在诸多任务中取得的骄人成绩使得其进化越来越好。本文收集深度学习中的经典算法,以及相关的解释和代码实现。

2019/06/03 11:36:4115,798
#深度学习
深度学习的反向传播手动推导

深度学习的反向传播手动推导

反向传播算法是深度学习求解最重要的方法。这里我们手动推导一下。

2019/06/04 11:37:144,086
#反向传播#梯度下降
AdaBoost算法详解以及代码实现

AdaBoost算法详解以及代码实现

AdaBoost,全称是“Adaptive Boosting”,由Freund和Schapire在1995年首次提出,并在1996发布了一篇新的论文证明其在实际数据集中的效果。这篇博客主要解释AdaBoost的算法详情以及实现。它可以理解为是首个“boosting”方式的集成算法。是一个关注二分类的集成算法。

2019/06/15 09:09:1310,706
#adaboost#集成学习
CNN经典算法AlexNet介绍

CNN经典算法AlexNet介绍

2012年发表的AlexNet可以算是开启本轮深度学习浪潮的开山之作了。由于AlexNet在ImageNet LSVRC-2012(Large Scale Visual Recognition Competition)赢得第一名,并且错误率只有15.3%(第二名是26.2%),引起了巨大的反响。相比较之前的深度学习网络结构,AlexNet主要的变化在于激活函数采用了Relu、使用Dropout代替正则降低过拟合等。本篇博客将根据其论文,详细讲述AlexNet的网络结构及其特点。

2019/06/20 10:28:169,262
#卷积神经网络#深度学习
提炼BERT——将BERT转成小模型(Distilling BERT — How to achieve BERT performance using Logistic Regression)

提炼BERT——将BERT转成小模型(Distilling BERT — How to achieve BERT performance using Logistic Regression)

BERT是很好的模型,但是它的参数太大,网络结构太复杂。在很多没有GPU的环境下都无法部署。本文讲的是如何利用BERT构造更好的小的逻辑回归模型来代替原始BERT模型,可以放入生产环境中,以节约资源。

2019/06/20 11:57:474,189
#BERT#深度学习
一文看懂如何初始化神经网络

一文看懂如何初始化神经网络

深度学习的初始化非常重要,这篇博客主要描述两种初始化方法:一个是Kaiming初始化,一个是LSUV方法。文中对比了不同初始化的效果,并将每一种初始化得到的激活函数的输出都展示出来以查看每种初始化对层的输出的影响。当然,作者最后也发现如果使用了BatchNorm的话,不同的初始化方法结果差不多。说明使用BN可以使得初始化不那么敏感了。

2019/06/21 17:20:496,469
#深度学习#神经网络
CNN中的一些高级技术(空洞卷积/显著图/反卷积)

CNN中的一些高级技术(空洞卷积/显著图/反卷积)

卷积神经网络是图像识别领域最重要的深度学习技术。也可以说是是本轮深度学习浪潮开始点。本文总结了CNN的三种高级技巧,分别是空洞卷积、显著图和反卷积技术。

2019/06/22 15:28:0111,198
#卷积神经网络#深度学习
Previous
1...101112...39
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8H5文件简介和使用

Today's Picks

  • 吉布斯抽样的一个简单理解
  • 集成学习(Ensemble Learning)简介及总结
  • 关于padding
  • 大语言模型的指令微调(Instruction Tuning)最全综述:从数据集到技术全解析
  • 几幅图解释为什么Netflix要进军游戏行业
  • 工业蒸汽量预测-特征工程
  • 回归模型中的交互项简介(Interactions in Regression)
OpenAI发布企业使用的ChatGPT:没有限制且更快的GPT-4、数据隔离、基于GPT-4的高级数据分析功能,但是暂不支持私有化部署