大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
Awesome ChatGPT Prompts——一个致力于提供挖掘ChatGPT能力的Prompt收集网站
Google前AI研究人员认为2024年可能不会出现能与GPT-4竞争的开源模型/产品
Seq2Seq的建模解释和Keras中Simple RNN Cell的计算及其代码示例
提炼BERT——将BERT转成小模型(Distilling BERT — How to achieve BERT performance using Logistic Regression)
最新消息显示OpenAI可能还在训练GPT-5,可能在今年年中发布GPT-5
LM-SYS开源包含人类偏好的3.3万条真实对话语料:可用于RLHF的训练过程!
如何让开源大模型支持ChatGPT的Code Interpreter能力:基于LangChain的开源项目Code Interpreter API
阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B!