DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
Original Blog

Original AI Tech Blogs

Explore the latest AI and LLM news and technical articles, covering original content and practical cases in machine learning, deep learning, and natural language processing.

Sort by
Sort by DateSort by Views
一个基于Python的机器学习项目——各种Kaggle比赛的解决方案

一个基于Python的机器学习项目——各种Kaggle比赛的解决方案

2019/11/03 12:02:162,973
#<span class='blog_tag'><a href='blog_list#tag
TensorFlow中常见的错误解释及解决方法

TensorFlow中常见的错误解释及解决方法

TensorFlow中常见的错误解释及解决方法

2019/11/01 11:21:1510,234
#keras#tensorflow
Java中自增操作i++与++i的区别

Java中自增操作i++与++i的区别

在Java中,自增是一种非常常见的操作,在自增中,有两种写法,一种是前缀自增(++i),一种是后缀自增(i++)。这里主要简单介绍两种自增的差别。

2019/09/07 15:17:283,082
#java#编程
softmax作为输出层激活函数的反向传播推导

softmax作为输出层激活函数的反向传播推导

softmax作为多标签分类中最常用的激活函数,常常作为最后一层存在,并经常和交叉熵损失函数一起搭配使用。这里描述如何推导交叉熵损失函数的推导问题。

2019/08/25 15:09:335,427
#python#人工智能
深度学习技巧之Batch Normalization

深度学习技巧之Batch Normalization

Batch Normalization是深度学习中最重要的技巧之一。是由Sergey Ioffe和Christian Szeged创建的。Batch Normalization使超参数的搜索更加快速便捷,也使得神经网络鲁棒性更好。本篇博客将简要介绍相关概念和原理。

2019/08/18 15:52:575,068
#coursera#深度学习
Java类型转换中valueOf方法和parseInt方法的区别

Java类型转换中valueOf方法和parseInt方法的区别

在Java的类型转换中,我们经常会使用valueOf或者parseInt(parseFloat/parseDouble等)来转换。这二者有什么区别呢?这里简要介绍一下。

2019/08/17 17:13:264,732
#Java#编程
发现新大陆!(申请领地)

发现新大陆!(申请领地)

这是一个新大陆,有博客园,算法区,技术堡,论文馆,数据林,工具库。尽情畅游吧!

2019/07/23 14:57:492,398
#myself#newmainland
数据预处理中的高频词与低频词

数据预处理中的高频词与低频词

在自然语言数据预处理阶段,为了提取更有用的信息,对数据必须进行相应处理。本文重点介绍对于高频词与低频词的处理。

2019/07/16 21:50:546,302
#文本处理
时间序列数据处理中的相关数学概念

时间序列数据处理中的相关数学概念

时间序列数据分析的基础包含大量的统计知识。这篇博客主要用通俗的语言描述时间序列数据中涉及到的一些基本统计知识。

2019/07/09 14:50:203,874
#时间序列数据#统计
100天搞定机器学习(100-Days-Of-ML)(一)数据预处理

100天搞定机器学习(100-Days-Of-ML)(一)数据预处理

2019/07/06 20:46:503,893
#机器学习
基于GPU的机器学习Python库——RAPIDS简介及其使用方法

基于GPU的机器学习Python库——RAPIDS简介及其使用方法

随着深度学习的火热,对计算机算力的要求越来越高。从2012年AlexNet以来,人们越来越多开始使用GPU加速深度学习的计算。 然而,一些传统的机器学习方法对GPU的利用却很少,这浪费了很多的资源和探索的可能。在这里,我们介绍一个非常优秀的项目——RAPIDS,这是一个致力于将GPU加速带给传统算法的项目,并且提供了与Pandas和scikit-learn一致的用法和体验,非常值得大家尝试。

2019/07/06 10:58:4014,898
#GPU#机器学习
数据科学的Python——keras备忘录发布,含Keras的各种使用样例

数据科学的Python——keras备忘录发布,含Keras的各种使用样例

2019/07/02 22:14:462,598
#keras#深度学习
神器!AI硬件基准测试库发布

神器!AI硬件基准测试库发布

2019/06/30 21:14:312,757
#人工智能
标签平滑(Label Smoothing)——分类问题中错误标注的一种解决方法

标签平滑(Label Smoothing)——分类问题中错误标注的一种解决方法

在2016年,Szegedy等人提出了inception v2的模型(论文:Rethinking the inception architecture for computer vision.)。其中提到了Label Smoothing技术,可以提高模型效果。

2019/06/25 17:27:2412,381
#深度学习
使用卷积神经网络进行手写识别

使用卷积神经网络进行手写识别

本文是发在Medium上的一篇博客:《Handwritten Equation Solver using Convolutional Neural Network》。本文是原文的翻译。这篇文章主要教大家如何使用keras训练手写字符的识别,并保存训练好的模型到本地,以及未来如何调用保存到模型来预测。

2019/06/23 22:35:533,584
#卷积神经网络#深度学习
Tensorflow中数据集的使用方法(tf.data.Dataset)

Tensorflow中数据集的使用方法(tf.data.Dataset)

Tensorflow中tf.data.Dataset是最常用的数据集类,我们也使用这个类做转换数据、迭代数据等操作。本篇博客将简要描述这个类的使用方法。

2019/06/22 16:04:2413,910
#python#tensorflow
CNN中的一些高级技术(空洞卷积/显著图/反卷积)

CNN中的一些高级技术(空洞卷积/显著图/反卷积)

卷积神经网络是图像识别领域最重要的深度学习技术。也可以说是是本轮深度学习浪潮开始点。本文总结了CNN的三种高级技巧,分别是空洞卷积、显著图和反卷积技术。

2019/06/22 15:28:0111,202
#卷积神经网络#深度学习
一文看懂如何初始化神经网络

一文看懂如何初始化神经网络

深度学习的初始化非常重要,这篇博客主要描述两种初始化方法:一个是Kaiming初始化,一个是LSUV方法。文中对比了不同初始化的效果,并将每一种初始化得到的激活函数的输出都展示出来以查看每种初始化对层的输出的影响。当然,作者最后也发现如果使用了BatchNorm的话,不同的初始化方法结果差不多。说明使用BN可以使得初始化不那么敏感了。

2019/06/21 17:20:496,469
#深度学习#神经网络
提炼BERT——将BERT转成小模型(Distilling BERT — How to achieve BERT performance using Logistic Regression)

提炼BERT——将BERT转成小模型(Distilling BERT — How to achieve BERT performance using Logistic Regression)

BERT是很好的模型,但是它的参数太大,网络结构太复杂。在很多没有GPU的环境下都无法部署。本文讲的是如何利用BERT构造更好的小的逻辑回归模型来代替原始BERT模型,可以放入生产环境中,以节约资源。

2019/06/20 11:57:474,191
#BERT#深度学习
CNN经典算法AlexNet介绍

CNN经典算法AlexNet介绍

2012年发表的AlexNet可以算是开启本轮深度学习浪潮的开山之作了。由于AlexNet在ImageNet LSVRC-2012(Large Scale Visual Recognition Competition)赢得第一名,并且错误率只有15.3%(第二名是26.2%),引起了巨大的反响。相比较之前的深度学习网络结构,AlexNet主要的变化在于激活函数采用了Relu、使用Dropout代替正则降低过拟合等。本篇博客将根据其论文,详细讲述AlexNet的网络结构及其特点。

2019/06/20 10:28:169,264
#卷积神经网络#深度学习
AdaBoost算法详解以及代码实现

AdaBoost算法详解以及代码实现

AdaBoost,全称是“Adaptive Boosting”,由Freund和Schapire在1995年首次提出,并在1996发布了一篇新的论文证明其在实际数据集中的效果。这篇博客主要解释AdaBoost的算法详情以及实现。它可以理解为是首个“boosting”方式的集成算法。是一个关注二分类的集成算法。

2019/06/15 09:09:1310,709
#adaboost#集成学习
深度学习的反向传播手动推导

深度学习的反向传播手动推导

反向传播算法是深度学习求解最重要的方法。这里我们手动推导一下。

2019/06/04 11:37:144,088
#反向传播#梯度下降
深度学习的经典算法的论文、解读和代码实现

深度学习的经典算法的论文、解读和代码实现

深度学习是目前最火的算法领域。他在诸多任务中取得的骄人成绩使得其进化越来越好。本文收集深度学习中的经典算法,以及相关的解释和代码实现。

2019/06/03 11:36:4115,799
#深度学习
深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)

深度学习卷积操作的维度计算(PyTorch/Tensorflow等框架中Conv1d、Conv2d和Conv3d介绍)

卷积操作的维度计算是定义神经网络结构的重要问题,在使用如PyTorch、Tensorflow等深度学习框架搭建神经网络的时候,对每一层输入的维度和输出的维度都必须计算准确,否则容易出错,这里将详细说明相关的维度计算。

2019/05/31 20:27:0719,997
#PyTorch#卷积神经网络
Previous
1...272829...39
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8H5文件简介和使用

Today's Picks

  • 大模型如何使用长上下文信息?斯坦福大学最新论文证明,你需要将重要的信息放在输入的开始或者结尾处!
  • Simple Bench:一个专为“常识”而生的大模型评测基准
  • css的层叠性
  • 如何在HuggingFace上快速下载DeepSeek-OCR模型?快速下载Hugging Face 大模型的几种实用方法简介
  • 对比关系生成模型(Comparative Relation Generative Model)
  • 最像OpenAI的企业Anthropic的重大产品更新:GPT-4最强竞争模型Claude2发布!免费!具有更强的代码能力与更长的上下文!
  • Artificial Analysis报告显示中国AI产业技术突破,已经与美国形成全球双极主导
  • Seq2Seq的建模解释和Keras中Simple RNN Cell的计算及其代码示例