ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文

AI最新资讯3个月前发布 tree
43 0 0

今日应用


今日话题


ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文
ChatGPT如何「思考」?心理学和神经科学破解AI大模型,Nature发文
 

重点标签 可解释人工智能机器学习神经网络大型语言模型人工智能监管

文章摘要


XAI的标准方法包括突出显示导致算法做出决策的图像部分,或构建决策树来近似AI的行为。尽管这些努力取得了一些成功,但XAI仍然是一个正在进行的工作。大型语言模型(LLM),如ChatGPT背后的机器学习程序,由于其规模和数千亿个参数,尤其难以理解。这些模型现在被用于提供医疗建议、编写代码、总结新闻、起草学术论文等重要任务,但同时也可能产生错误信息、延续社会刻板印象和泄露私人信息。

为了解释LLM的运作方式,研究人员采用了多种方法,包括使用特殊技术来阐明模型利用的训练数据,以及通过对话疗法和思维链提示来质疑模型的工作原理。此外,一些研究人员借鉴了神经科学的技巧,如观察神经元的激活情况,来探索LLM的内部运作。还有研究人员开发了扫描和编辑人工智能神经网络的方法,包括因果追踪技术。

尽管取得了进展,但仍有许多工作要做,一些研究人员认为,发布LLM的公司应该确保这种情况发生。欧盟的人工智能法案要求高风险人工智能系统具有可解释性,尽管LLM不被归类为高风险,但它们的创建者仍应承担起责任。

文章来源


原文地址: 点我阅读全文
原文作者: 机器之心

© 版权声明

相关文章

暂无评论

暂无评论...