DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
  1. Home/
  2. Blog/
  3. Tag: BatchNormalization
Tag

Articles tagged "BatchNormalization"

A curated list of original AI and LLM articles related to "BatchNormalization", updated regularly.

Tags:#BatchNormalization
Batch Normalization应该在激活函数之前使用还是激活函数之后使用?

Batch Normalization应该在激活函数之前使用还是激活函数之后使用?

Batch Normalization(BN)是深度学习领域最重要的技巧之一,最早由Google的研究人员提出。这个技术可以大大提高深度学习网络的收敛速度。简单来说,BN就是将每一层网络进行归一化,就可以提高整个网络的训练速度,并打乱训练数据,提升精度。但是,BN的使用可以在很多地方,很多人最大的困惑是放在激活函数之前还是激活函数之后使用,著名机器学习领域的博主Santiago总结了这部分需要注意的内容。

2022/11/05 14:42:332,760
#BatchNormalization#深度学习
深度学习中为什么要使用Batch Normalization

深度学习中为什么要使用Batch Normalization

Batch Normalization(BN)是一种深度学习的layer(层)。它可以帮助神经网络模型加速训练,并同时使得模型变得更加稳定。尽管BN的效果很好,但是它的原理却依然没有十分清晰。本文总结一些相关的讨论,来帮助我们理解BN背后的原理。

2021/11/03 21:05:271,854
#BatchNormalization#深度学习

Topic Collections

RAG (Retrieval-Augmented Generation)
Long Context (Large Language Models)
AI Agent Practices

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

Today's Picks

  • GPT4All:一个可以直接在本地运行各大商业友好的开源大模型解决方案
  • 最新发布!基于推文(tweet)训练的NLP的Python库TweetNLP发布了!
  • 一个基于Python的机器学习项目——各种Kaggle比赛的解决方案
  • 文本预处理的一般步骤和方法
  • 阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B!
  • MySQL启用中文全文检索功能
  • 如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验
  • 使用SpringMVC创建Web工程并使用SpringSecurity进行权限控制的详细配置方法