标签:问题

RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

机器之心报道 编辑:rome检索增强生成(RAG)和微调(Fine-tuning)是提升大语言模型性能的两种常用方法,那么到底哪种方法更好?在建设特定领域的应用时哪种...
阅读原文

我在技​​术面试中用ChatGPT作弊,没人知道

作者|Michael Mroczka 译者|平川 策划|褚杏娟 众所周知,ChatGPT 已经彻底改变了人们的工作方式。它既能帮助小型企业自动化管理任务,又能为 Web 开发人员...
阅读原文

复旦大学最新研究:如何让大模型敢回答“我不知道”?

夕小瑶科技说 原创作者 | 松果 引言:AI助手的真实性挑战在人工智能(AI)的发展进程中,基于大型语言模型(LLMs)的AI助手已经在多个任务中展现出惊人的性能...
阅读原文

代码人生攻略:程序员们如何为自己编织一份明朗未来?

作者|Tina 2023 年,没有一个打工人避得开 AI。程序员这个行业也不例外。现在,大量代码都可以由人工智能辅助完成,“人工智能编码助手”也已经跨越了从创新者...
阅读原文

Perplexity CEO 专访:拥有十万用户的套壳产品比拥有自有模型却没有用户更有意义

上月初,Perplexity 完成了 B 轮融资,最新估值为 5.2 亿美元,这轮融资由 IVP 领投,NVIDIA 和 Jeff Bezos、NEA、Elad Gil、Nat Friedman 等跟投,Perplexit...
阅读原文

比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上

机器之心专栏 机器之心编辑部今天,穆罕默德・本・扎耶德人工智能大学 VILA Lab 带来了一项关于如何更好地为不同规模的大模型书写提示词(prompt)的研究,让...
阅读原文

AI「导师」进哈佛!7×24小时辅导CS课程,RAG或成AI教育最后一块拼图

新智元报道编辑:拉燕 【新智元导读】哈佛大学将AI引入CS课程,学生的个性化「导师」,学习效率拉满!去年,哈佛大学做了件大事。 他们在自己的CS50课程中引...
阅读原文

今日arXiv最热NLP大模型论文:IBM研究院提出Genie方法,自动生成高质量数据集

夕小瑶科技说 原创编辑 | 谢年年数据是大模型的基石。但传统的数据集创建方法通常依赖人工,耗时耗力成本高,另外数据集的来源复杂,噪声大,比如新闻媒体稿...
阅读原文

今日Arxiv最热NLP大模型论文:复旦大学最新研究,如何让大模型说出“我不知道”?

夕小瑶科技说 原创作者 | 松果引言:AI助手的真实性挑战在人工智能(AI)的发展进程中,基于大型语言模型(LLMs)的AI助手已经在多个任务中展现出惊人的性能...
阅读原文

Linus新年首骂:和谷歌大佬大吵4天,“你的代码就是垃圾”

金磊 发自 凹非寺量子位 | 公众号 QbitAI风风火火的Linux之父,Linus Torvalds,他又跃入公众的视线。 “打开方式”依旧是熟悉的配方——骂人。 我们先来看下Linu...
阅读原文

Perplexity 交互剖析:如何基于尼尔森设计原则,开发让用户满意的 AI-Native 产品?

LUI 还是 GUI,AI 时代的产品交互应该遵循怎样的产品交互原则,在 2023 年被讨论过很多次,似乎大家得到的共识是,需要 LUI,但 GUI 也是不可少的。 而作为 A...
阅读原文

OpenAI出手后,GPT-4真的不懒了?网友不买账:只靠打补丁恐怕无济于事!

整理 | 凌敏、核子可乐 大模型会从人类经验中学习,如果人类本身越来越懒,那模仿人类的程序是不是也会越来越懒? OpenAI 发布更新, 解决 GPT-4“变懒”问题 ...
阅读原文

更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

机器之心专栏 机器之心编辑部近期,随着多模态大模型(LMM) 的能力不断进步,评估 LMM 性能的需求也日益增长。与此同时,在中文环境下评估 LMM 的高级知识和...
阅读原文

「think step by step」还不够,让模型「think more steps」更有用

机器之心报道 机器之心编辑部本文对思维链的推理步长进行了控制变量实验,发现推理步长和答案的准确性是线性相关的,这种影响机制甚至超越了问题本身所产生的...
阅读原文

“哄女友挑战”上线即爆火,两天烧掉10亿token,AI已通关

梦晨 克雷西 发自 凹非寺量子位 | 公众号 QbitAI女朋友生气了哄不好怎么办? 这款哄哄模拟器,由AI扮演生气的男/女朋友,限定对话次数训练,帮助你提高获得原...
阅读原文
1212223242535