DataLearnerAI
切换导航菜单
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言
中文
中
中文
EN
English
搜索博客
中
EN
「������」标签相关文章 | DataLearnerAI
首页
/
博客
/
标签:������
标签
「������」相关文章
汇总「������」相关的原创 AI 技术文章与大模型实践笔记,持续更新。
标签:
#������
暂无博客
目前还没有发布任何博客,请稍后再来查看。
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
2
回归模型中的交互项简介(Interactions in Regression)
3
贝塔分布(Beta Distribution)简介及其应用
4
矩母函数简介(Moment-generating function)
5
普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
6
使用R语言进行K-means聚类并分析结果
7
深度学习技巧之Early Stopping(早停法)
8
手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
今日推荐
大模型的多语言能力来自哪里?大模型是否有自己的内部语言?在英文数据集上学习到的知识可以用中文表达出来吗?
智谱发布 GLM-ASR(闭源)与开源 1.5B GLM-ASR-Nano-2512:针对中文与方言场景的语音识别尝试
Unifying Language Learning Paradigms——谷歌的一个模型打天下
Kimi开源K2大模型:全球首个开源可商用的1万亿参数规模大模型,MoE架构,评测结果与DeepSeekV3相当,但模型文件有1TB!
腾讯开源Hunyuan-A13B大模型:MoE架构,混合推理(支持直接回复和带推理过程后回复),原WizardLM团队打造,评测结果超Qwen2.5-72B,接近Qwen3-A22B,但参数量只有一半
谷歌官方高性能大规模高维数据处理库TensorStore发布!
[翻译]当推荐系统遇上深度学习
关于GPT-4的多模态版本最新消息:可能的代号是Gobi,也许会比Google下一代LLM的Gemini更早发布