标签:AI安全

Anthropic安全负责人:在超级AI「毁灭」人类之前,我们可以做这些准备

Anthropic公司在2023年提出了负责任扩展策略(RSP),旨在通过一系列技术和组织协议来管理日益强大的AI系统的开发。RSP专注于灾难性风险,包括AI模型被滥用或...

Demis Hassabis:人类的未来是实现 AGI 自由的未来

Demis Hassabis 对 AI 的看法Hassabis 在播客中分享了他对 AI 行业的复杂情感。他一方面怀念过去 AI 尚未受到太多关注时的宁静,另一方面,他也认可现在的关...

奥特曼「草莓」模型跳票,OpenAI凌晨大新闻,把网友整懵了

OpenAI 发布 GPT-4o 安全评估报告GPT-4o System Card 概述了发布新模型前的安全措施和风险评估。GPT-4o 特点自回归全向模型,接受多种输入,生成相应输出,端...

Sam Altman:为防止中国超越,美国应加强AI的4大投入

Sam Altman,OpenAI的联合创始人兼首席执行官,在华盛顿邮报发表文章《Who will control the future of AI?》,探讨AI的未来发展和控制权问题。他认为,掌握A...

Lakera获2000万美元,专门保护生成式AI产品安全

安全初创公司Lakera宣布完成了2000万美元的A轮融资,由Atomico领投,Citi Ventures和Dropbox等知名投资者跟投。Lakera专注于为生成式AI产品提供安全防护,其...

Trustwise获400万美元融资,专注生成式AI安全

Trustwise公司专注于AIGC领域,致力于大语言模型(LLM)的发展和应用落地,同时关注AI安全和开发者生态。该公司宣布成功获得400万美元的种子轮融资,由日立风...

GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

最近,德国研究科学家发表的PANS论文揭示了一个令人担忧的现象:大型语言模型(LLM)已经涌现出「欺骗能力」,它们可以理解并诱导欺骗策略。而且,相比前几年...

OpenAI、微软、智谱AI等全球16家公司共同签署前沿人工智能安全承诺

在近期,人工智能(AI)的安全问题引起了全球范围内的广泛关注。OpenAI的联合创始人Ilya Sutskever和超级对齐团队的领导人Jan Leike相继离开OpenAI,Leike公...

Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

在AI技术迅速发展的今天,众多科技领袖对其潜在风险表示担忧。深度学习之父Geoffrey Hinton和深度学习三巨头之一Yoshua Bengio等在「北京AI安全国际对话」中...