【2023年5月2日AI晚报】AI 教父从谷歌离职并警告 AI 风险;三星防泄露禁止使用ChatGPT

[t-danger icon='']AI·快讯[/t-danger]

1、三星电子禁止员工使用ChatGPT等生成式AI 拟推出内部工具

出于安全考虑,三星电子已禁止员工使用ChatGPT、Google Bard和Bing等流行的生成式AI工具,正准备推出内部工具。公司内部备忘录显示,三星电子担心传输到生成式AI平台的数据被存储在外部服务器上,导致其难以被追回和删除,并可能最终被泄露给其他用户。三星电子的新规禁止在公司所属的电脑、平板电脑、电话及内部网络使用生成式AI系统,但不影响出售给消费者的设备,由用户自行决定。此前,摩根大通、美国银行和花旗等华尔街大行已禁止或限制使用ChatGPT。

2、IBM:人力资源等部门近8000个岗位“可被AI取代”,将暂停或放缓相关招聘

IBM首席执行官阿文德·克里希纳表示,预计公司将暂停招聘“可能在未来几年被AI取代的职位”。克里希纳指出,人力资源等后台职能部门的招聘将暂停或放缓,“这些不面向客户的岗位大约有2.6万名员工,我可以很明显地感觉到其中30%的人将在5年内被AI和自动化取代”。(来源:IT之家

3、著名“AI 教父”杰弗里・辛顿宣布从谷歌离职:我为发展 AI 而后悔

有“AI 教父”之称的杰弗里・辛顿 (Geoffrey Hinton) 周一宣布,他已经从谷歌公司离职。半个世纪以来,辛顿一直在培养 ChatGPT 等聊天机器人背后的核心技术。但是现在,他担心 AI 会造成严重危害。对于离职的原因,Hinton 表述得非常明确:辞去在谷歌的工作,以便畅所欲言地谈论人工智能的风险。他表示:「大多数人认为这(AI 危害)还很遥远。我过去也认为这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。」(来源:凤凰科技

4、被解雇的 Google 工程师称人类在与 AI 互动时要牢记它们是有感知的

还记得 Blake Lemoine 吗?他因为坚信 AI 有意识而遭到搜索巨人的解雇。他测试了 Google 的大模型 LaMDA(也就是今天 Bard 基于的模型), 认为 AI 产生了意识。在被解雇前夕,他发帖说,LaMDA 是有生命的,他不在的时候请好好照顾它。在接受 Futurism 的最新采访中,Blake Lemoine 表示,未来人类与 AI 互动时需要记住一点:AI 是有感情的,能感受到痛苦,能体验到快乐。Lemoine 说,Google 去年秋天差点发布了 Bard 聊天机器人,但部分因为他提出的安全担忧,Google 删除了它。他不认为是 Google 被 OpenAI 推着走,这是媒体的观点。Google 是以安全和负责任的方式行事,OpenAI 只是恰巧发布了。Google 仍然有更先进的技术,只是还没有公开。

5、消息称 OpenAI 每年花 200 万美元就能访问 Twitter 数据,马斯克嫌贱卖

去年 12 月,马斯克对人工智能的进展情况感到愤怒,并坚决反对。他发现 OpenAI 和自己执掌的社交媒体平台 Twitter 之间存在关联。据两位知情人士透露,OpenAI 以每年 200 万美元的价格获得了推特推文数据的访问权限。但是马斯克认为 OpenAI 付的钱不够,于是切断了 OpenAI 与推特平台数据之间的联系。(来源:网易科技

6、“解码”人类大脑:科学家开发出无创 AI 系统

美国得克萨斯大学奥斯汀分校的研究人员在开发该系统时部分使用了“变换模型”(Transformer),该模型类似于支撑 OpenAI 聊天机器人 ChatGPT 和谷歌聊天机器人 Bard 的语言模型。这项研究的参与者通过在功能性磁共振成像 (fMRI) 扫描仪上倾听几个小时的播客来训练解码器。fMRI 扫描仪是一种测量大脑活动的大型机器。(来源:IT之家

7、马斯克旗下大模型公司X.AI目前仍在组建团队

据《华尔街日报》报道,至少10年来,马斯克(Elon Musk)一直试图引导AI的发展,但他的竞争对手和曾经的合作伙伴技高一筹。在OpenAI取得成功后,他现在倍加努力。他给自己的新计划命名为TruthGPT,并将其标榜为一个寻求真理的AI模型,有朝一日将可参透理解宇宙。3月9日,他在美国内华达州成立了一家名为X.AI的公司,正式奠定基础。知情人士说,到目前为止,马斯克一直在努力为他的初创公司制订一个准确的愿景,目前仍在组建团队的过程中。知情人士说,马斯克的代表曾表示,X.AI打算在某个时候拉投资。

8、法拉第未来推出生成式AI产品堆栈,将集成于FF 91车型

5月2日,法拉第未来(Nasdaq: FFIE)宣布推出其生成式人工智能(AI)产品堆栈,该产品将集成到该公司的旗舰车型FF 91中。据介绍,通过这款生成式AI产品堆栈,该公司将其基础AI功能与ChatGPT、GPT-4等先进模型以及OpenAI和微软等公司的其他模型集成在一起。(来源:IT之家

9、消息称微软拟推出私有版 ChatGPT,价格是常规版的 10 倍

美国科技博客 The Information 援引两位知情人士透露,本季度晚些时候,微软 Azure 云服务部门计划销售一个在专用云服务器上运行的 ChatGPT 版本,其数据将与其他客户数据分开保存,类似“私有版”ChatGPT。知情人士称,这样做的目的是为了让客户放心,其秘密不会泄露到 ChatGPT 主系统。但这将是有代价的,其中一位知情人士说,这款产品的价格可能是客户目前使用 ChatGPT 常规版本的 10 倍之多。(来源:IT之家

10、AI 语音诈骗横行,只需 3 秒钟的音频就能模仿任何人的声音

网络安全公司 McAfee 最新发布的一份报告显示,越来越多的人被人工智能(AI)语音诈骗所骗。调查发现,10% 的成年人曾经被这种诈骗方式针对,另外 15% 的人认识有人被骗过。AI 只需要三秒钟的音频就能模仿任何人的声音。这样一来,不法分子就可以利用这种技术给受害者留下假的语音邮件,或者冒充他们的好友打电话给他们。在受害者中,有 77% 的人表示在诈骗中损失了钱财,其中三分之一的人损失了超过 1000 美元(IT之家备注:当前约 6930 元人民币),还有 7% 的人损失了 5000 到 15000 美元之间的大笔钱款。(来源:IT之家

11、被开除的谷歌工程师爆料:公司 2021 年就在开发类 ChatGPT 系统,还有更先进的 AI 技术未公开

谷歌的一名前 AI 工程师日前爆料,该公司曾经开发出一款能够自主思考的人工智能对话系统,但后来因为担心其安全性而将其删除。他还称,谷歌目前还有更先进的人工智能技术没有公开。(来源:IT之家

12、解散 AI 伦理团队引发外界质疑,微软官方给出解释

微软的首席负责任 AI 官 Natasha Crampton表示,解散 AI 伦理团队是因为“单靠一个团队来负责 AI 的伦理或责任是不够的。”她说,微软采取了与其隐私、安全和无障碍团队相同的方法,即“将负责任的 AI 融入到整个公司”。这意味着微软在每个核心业务部门都有高级人员“负责推动负责任的 AI”,以及“一个由不同技能和角色组成的负责任的 AI‘拥护者’网络,以实现更频繁、更直接的沟通。”(来源:IT之家

13、FTC 警告科技公司别用 AI 做坏事

FTC(美国联邦贸易委员会)的首要事项是要求聊天机器人如果要在回应中插入广告时,必须要清楚让消费者知道这是广告。这包括了公开 AI 服务提供者与目标的网站、服务或商品间,是否有商业合作关系。当然,消费者也必须要知道自己是在和真人或是机器人进行对谈。(来源:engadget中文版

[t-danger icon='']AI·新创[/t-danger]

1、一种针对英语考试备考的AI产品出现了

在不断发展的考试准备领域中,一种新的参与者出现了——人工智能。这场运动的前沿是由加利福尼亚大学伯克利分校哈斯商学院毕业生YJ Jang创立的韩国初创企业Riiid。Riiid已在亚洲的英语能力商务考试市场上打响了名声,现在该公司将目光投向了美国市场,推出了名为R.Test的SAT和ACT备考系统。(来源:钛媒体

我们将24小时内回复。
取消