DataLearner logoDataLearnerAI
AI Tech Blogs
Leaderboards
Benchmarks
Models
Resources
Tool Directory

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
LLM News

LLM Technical News Blog

Explore the latest AI and LLM news, research findings, and technical blogs. Daily updates on cutting-edge developments in deep learning, machine learning, and neural networks.

Tech News#大型语言模型#推理能力#机器学习

深度解析:为何大型语言模型在推理上表现不佳?

本文深入分析了大型语言模型(LLMs)在推理任务上表现不佳的原因,探讨了模型训练目标与评估目标不一致、推理任务的高精度要求、错误累积效应等因素,并提出了未来可能的解决方案。

2023-12-07 22:05842
Tech News#OpenAI#Claude 2.1#人工智能

探究大模型技术:OpenAI的Claude 2.1模型在长文本理解上的突破

本文深入探讨了OpenAI最新发布的Claude 2.1模型在长文本理解上的性能表现,分析了在200K token上下文窗口中的信息检索能力,并讨论了如何通过微调提示来提高模型对特定句子的回答准确性。

2023-12-07 18:22405
Tech News#GPT-4#大模型#医学领域

大模型技术的新突破:GPT-4在医学领域的专业化表现

本文探讨了OpenAI最新发布的关于GPT-4模型在医学挑战问题基准上的表现,以及通过智能提示策略使其成为领域专家的能力。我们将深入分析GPT-4如何在没有特定领域微调的情况下,通过Medprompt提示策略组合超越专门为医学应用调整的模型。

2023-12-06 13:19583
Tech News#GPT#AI助手#技术对比

GPT与助手API:AI技术的两种实现路径对比

本文详细对比了GPT和助手API这两种AI技术的实现路径,包括它们的创建过程、操作环境、定价策略、用户界面、共享能力以及宿主情况。旨在为开发者和企业提供清晰的选择指导,帮助理解各自的优势和应用场景。

2023-12-06 07:18544
Tech News#AI#大模型#提示工程

大模型技术探讨:提示工程、检索增强生成与微调

在构建基于大语言模型(LLM)的应用程序时,AI工程师必须做出一个重要的决策:选择提示工程、检索增强生成(RAGs)还是微调。本文将探讨这三种方法的含义、优势及适用场景,为AI领域的专业人士提供决策依据。

2023-12-06 07:02409
Tech News#大模型技术#RLHF#AI进化

解读大模型技术:RLHF并非“觉醒算法”,而是AI进化的关键

近期,关于强化学习人类反馈(RLHF)技术的讨论引起了广泛关注。本文基于OpenAI官方人员的最新评论,深入解析RLHF技术的实际应用和影响,阐释其在AI模型训练中的作用,并探讨了大模型技术在迭代进化中遇到的挑战和解决方案。

2023-12-03 17:34414
Tech News#大模型#AI#显存优化

如何在24GB显存上部署340亿参数的大模型

本文介绍了在24GB显存的显卡上部署具有340亿参数的大型AI模型的步骤和技巧,包括Python环境搭建、模型下载、显存优化、模型量化和性能调优等关键过程。

2023-12-03 17:151,815
Tech News#AI#大模型#算力

AI大模型时代:企业巨头的算力角逐与技术未来

本文深入探讨了AI大模型技术的最新动态,分析了企业巨头在算力上的投资与布局,以及这些技术发展对未来社会的潜在影响。

2023-12-03 16:00156
Tech News#OpenAI#Claude 2.1#人工智能

Anthropic推出Claude 2.1:AI模型新突破与企业应用前景

本文介绍了OpenAI最新发布的人工智能模型Claude 2.1,该模型在处理长文档、减少幻觉率、理解和总结能力上取得了显著进步,并且提供了新的API工具使用功能,旨在提高企业运营中的AI应用效率和可靠性。

2023-12-03 15:38229
Tech News#AI#大模型#GPU

大模型技术:CPU时钟频率对性能的影响及经济型多GPU主机选购指南

本文讨论了CPU时钟频率对大型语言模型(LLMs)性能的影响,以及如何在预算有限的情况下选购能够支持多GPU的服务器硬件。我们将深入分析CPU时钟频率、PCIe通道数量、内存速度等因素对模型训练和推断的影响,并提供一些经济型的硬件选购建议。

2023-12-01 00:07425
Tech News#人工智能#大模型#GPU

如何在4GB显存的GPU上运行70B参数的大模型?

本文探讨了在资源有限的硬件上运行大型机器学习模型的可能性,特别是在只有4GB显存的GPU上运行70B参数的模型。我们将分析这一技术的实现方法、潜在的优势和局限性,并探讨它对未来人工智能研究和应用的影响。

2023-11-30 23:391,327
Tech News#深度学习#扩散模型#机器学习

深度扩散模型中XX步配置的含义和影响

本文旨在为初学者和有一定机器学习基础的人解释深度扩散模型中XX步配置的含义及其对模型性能的影响。通过深入浅出的解释和实例,读者将能更好地理解这一概念,并在实践中加以应用。

2023-11-29 09:30504
Tech News#SDXL Turbo#文本到图像#模型

SDXL Turbo:实时文本到图像生成模型的最新突破

本博客介绍了最新发布的SDXL Turbo模型,它采用了新的蒸馏技术,实现了单步图像生成并保持了高质量输出,大大减少了计算需求。同时,我们还将探讨其技术细节、性能优势以及如何在Clipdrop平台上测试这一模型。

2023-11-29 08:30387
Tech News#AI#大模型#GPT-4

如何在不访问专用实例的情况下提高GPT-4的吞吐量

本文介绍了@cursor_ai如何通过从基本原理出发,逆向工程预期的GPT-4延迟和内存使用情况,实现在不访问OpenAI专用实例的情况下,将GPT-4的吞吐量提高2-3倍的过程。

2023-11-27 09:04200
Tech News#AI#LLM#OpenHermes

OpenHermes 2.5 Mistral 7B:跨越人机交流的新篇章

OpenHermes 2.5 Mistral 7B是一个最新的大型语言模型,它在多个非代码基准测试中表现出色,尤其在处理代码指令方面有显著提升。

2023-11-26 23:37555
Tech News#AI#模型#Mistral 7B

Mistral 7B模型发布:73亿参数规模新突破

Mistral 7B模型是一个具有7.3亿参数的大模型,它在各项基准测试中超越了Llama 2 13B模型,并且在许多基准测试中超越了Llama 1 34B模型。该模型不仅在代码方面接近CodeLlama 7B的性能,同时在英语任务上也表现出色。

2023-11-26 23:28623
Tech News#AI#OpenChat#技术

AI领域的新突破:OpenChat 3.5技术详解

近期AI领域出现了新的突破,OpenChat 3.5技术发布,其性能与OpenAI的ChatGPT相媲美,但模型大小仅为后者的三分之一。本文将详细介绍OpenChat 3.5的技术特点、性能对比以及其在AI对话模型领域的意义。

2023-11-26 23:191,374
Tech News#AI#大模型#技术

探索英特尔最新的大模型技术:NeuralChat 7B

本文将探讨英特尔最新发布的聊天模型NeuralChat 7B,该模型采用了无偏好数据的直接偏好优化(DPO)技术,在OpenLLM排行榜上名列前茅。我们将分析其技术细节、性能表现以及与其他模型的对比。

2023-11-26 22:52446
Tech News#人工智能#语言模型#Orca 2

Orca 2:小型语言模型的推理能力提升之路

本文介绍了Orca 2模型,这是一个小型语言模型,通过改进的训练方法和信号,展现了与大型模型相匹敌的推理能力。

2023-11-26 22:33311
Tech News#AI#语音识别#自然语言处理

Whisper大模型v3发布:提升语音识别与翻译性能

OpenAI最新发布的Whisper大模型v3在语音识别和翻译方面展现出显著的性能提升,该模型在1百万小时的弱标签音频和4百万小时的伪标签音频上进行了训练,展示出强大的泛化能力。

2023-11-26 22:011,785
Previous
1...456...12
Next

Topic Collections

RAG (Retrieval-Augmented Generation)Long Context (Large Language Models)AI Agent Practices

Hot Blogs

  • 1
Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署
  • Today's Picks

    • 给初学者的深度学习简介
    • 当前业界最优秀的8个编程大模型简介:从最早的DeepMind的AlphaCode到最新的StarCoder全解析~
    • AI Agent进展再进一步!Anthropic发布大模型上下文连接访问协议MCP:让任何资源快速变成大模型的工具,突破大模型的能力边界!
    • 预训练大模型时代必备技巧——提示工程指南(Prompt Engineering Guide)
    • Keras框架下输出模型中间层学习到的表示的两种常用方式
    • 高斯混合模型(GMM)
    • Hadoop(一)-HDFS
    • MATH vs. MATH-500:数学推理评测基准的对比与解析