标签:可解释性

来自OpenAI的可解释性新作:从GPT-4中提取概念!

研究人员正在探索一种新方法,通过稀疏性自动编码器来理解神经网络的内部活动。这种方法旨在找到人类可解释的“特性”,并具有更好的可扩展性。OpenAI开发了一...

从Claude 3中提取数百万特征,首次详细理解大模型的「思维」

Anthropic公司在理解人工智能模型内部运作机制方面取得了重大进展。他们确定了如何在Claude Sonnet中表征数百万个概念,这是对现代生产级大型语言模型的首次...

爆火后反转?「一夜干掉MLP」的KAN:其实我也是MLP

步骤2:撰写摘要最近,一种名为KAN的新型神经网络模型引起了深度学习领域的关注。KAN,全称为Knowledge Aware Networks,由来自MIT等机构的研究者提出,其在...

向通用文字识别迈出坚实的一步!华科&金山办公推出多模态大模型TextMonkey

TextMonkey模型概述:TextMonkey是基于Monkey模型的改进版,由华中科技大学和金山的研究人员共同提出。该模型专注于文本相关任务,如文档问答和场景文本问答...