DataLearner 标志DataLearnerAI
最新AI资讯
大模型评测
大模型列表
大模型对比
资源中心
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
  1. 首页/
  2. 博客列表/
  3. 博客详情

OpenAI隐藏的一个ChatGPT新功能:在对话框中@任意GPTs,获得回答!一个巨大的由各种GPT组成的聊天世界即将到来

2024/01/26 20:29:02
986 阅读
ChatGPTChatGPT新功能GPT自定义新版本ChatGPT

在最新的ChatGPT的前端代码中,有网友发现了一个OpenAI隐藏的或者正在测试的功能,即在ChatGPT的对话中可以@ 任意GPTs商店中公开的GPTs,然后由这个GPTs为用户当前的对话进行回复,这个功能不需要用户离开当前对话页面。这意味着在一次对话中,我们可以与几百万个不同的GPTs同时协作聊天,就像一个巨大的聊天群,里面有无数个各种各样的GPT一起为你解决问题。

下图是网友通过源代码还原的一个@ GPTs的效果。在对话框中你只要@ 即可出现GPTs候选框,如下图所示:

使用鼠标点击具体的某个GPTs,就会出现与XX GPTs对话的聊天提示:

这时候你输入的任何内容都会被发送到这个GPTs,之后聊天框回答就是由该GPTs产生。当然,在下次对话的时候你依然可以换一个GPTs来@,这样可以一次对话中与N个不同的GPTs对话了。

不得不说,这种在一个会话中与不同GPT对话的能力拓展了大模型应用的想象。这种场景实际上是一种多大模型协作的对话环境。在这样的环境中,用户可以在同一个对话中与多个专业领域或功能不同的大型模型互动。这种设置可能会带来以下几个方面的变化:

  1. 增强的多领域专业知识:用户可以同时获取来自不同模型的专业知识,例如同时咨询医疗健康、金融投资和法律事务的专家模型。

  2. 高效的信息整合:多个模型可以同时回答同一问题,或针对同一个话题给出不同角度的见解,从而提供更全面的信息。

  3. 复杂任务的协作处理:在解决复杂问题(例如项目管理、研究开发等)时,不同模型可以分别处理其擅长的部分,协作完成任务。

  4. 个性化学习和娱乐体验:在教育和娱乐领域,不同的模型可以根据用户的兴趣和需求提供个性化的内容。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码
返回博客列表

相关博客

  • OpenAI收入大揭秘:2024年收入40亿美金,2030年预计达到2000亿,年均复合增长超90%!ChatGPT占比将逐年下降!
  • GPT-5 模式与配额全解析:自动与手动 Thinking 的区别、不同用户的使用配额问题等
  • OpenAI正在测试一个新的o3模型:o3 alpha模型,实测编码和游戏能力十分突出
  • 最新消息显示OpenAI可能还在训练GPT-5,可能在今年年中发布GPT-5
  • OpenAI即将推出DALL·E Controls功能,可以更加精细化控制DALL·E图片生成的效果
  • OpenAI可能即将增加按年付费的选项,一年的ChatGPT Plus仅需200美元
  • GPT-4在11月份以来变懒的原因可能已经找到:大模型可能会在节假日期间变得不愿意干活,工作日期间却更加高效
  • 来自OpenAI的官方解释:ChatGPT中的GPTs与Assistants API的区别是什么?有什么差异?

热门博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署