标签:研究人员
为防大模型作恶,斯坦福新方法让模型「遗忘」有害任务信息,模型学会「自毁」了
西风 发自 凹非寺量子位 | 公众号 QbitAI防止大模型作恶的新法子来了!这下即使模型开源了,想恶意使用模型的人也很难让大模型“作恶”。不信就来看这项研究。...
GPT-4写代码不如ChatGPT,误用率高达62%!加州大学两位华人开源代码可靠性基准RobustAPI
新智元报道编辑:LRS【新智元导读】代码能否跑起来的不是判断可靠性的标准,用语言模型写代码还需要考虑生产环境下的预期外输入。大型语言模型(LLM)在理解...
RLHF再也不需要人类了!谷歌团队研究证明,AI标注已达人类水平
新智元报道编辑:编辑部【新智元导读】ChatGPT横空出世后,RLHF成为研究人员关注的焦点。谷歌最新研究提出,不用人类标注,AI标注偏好后,也能取得与RLHF一样...
免费科研利器!Meta祭出Nougat,PDF格式转换,公式表格精准识别,扫描版文档也可以
新智元报道编辑:桃子【新智元导读】最新科研神器Nougat,可以把PDF中公示、文本提取出来。做研究的童鞋们简直要狂喜!近来,Meta AI研究人员推出一款OCR神器...
GPT-4 MATH准确率最高涨至84.3%!港中文、清华等七所顶尖高校提出全新CSV方法
新智元报道编辑:LRS【新智元导读】让模型用代码自我验证解决方案,结合多数投票集成机制,推理准确率可以提升近30%!虽然大型语言模型(LLMs)在常识理解、...
谷歌证实大模型能顿悟,特殊方法能让模型快速泛化,或将打破大模型黑箱
新智元报道编辑:润 好困【新智元导读】谷歌团队认为,模型泛化能力无处不在,只要摸清条件,模型就不是随机鹦鹉。在特定情况下,人工智能模型会超越训练数据...
图灵测试已死!ChatGPT通过人类考试也不算,超强AI评估新秀「逻辑谜题」
新智元报道编辑:桃子【新智元导读】如何给大模型一个真正公平评价标准呢?世界最强AI——ChatGPT可以通过各种考试,甚至输出回答让人难以辨别真假。然而,它也...
「反AI」情绪!德国马普所揭秘:人类更喜欢自我定制AI艺术
新智元报道编辑:LRS【新智元导读】轻松拿捏人类审美,给AI艺术品做个性化定制将成流量密码!自去年DALL-E 2, Stable Diffusion, Midjourney等高质量AI绘画工...