推荐榜 短消息 big5 繁体中文 找回方式 手机版 广 广告招商 主页 VIP 手机版 VIP 界面风格 ? 帮助 我的 搜索 申请VIP
客服
打印

[国外] 马斯克,霍金和乔姆斯基:AI军备竞赛将导致机器人大战[1P]

购买/设置 醒目高亮!点此感谢支持作者!本贴共获得感谢 X 3

马斯克,霍金和乔姆斯基:AI军备竞赛将导致机器人大战[1P]

人工智能研究人员警告说,AI人工智能方面的军备竞赛可能是人类的灾难,并敦促联合国禁止各国研发“自主性进攻武器”。未来生命研究所(FLI)也发布了一份由斯蒂芬•霍金,伊隆•马斯克和诺姆•乔姆斯基等名人签署的一封公开信,这份公开信警告说,自动选择并打击目标,无需人工干预的AI自主性武器,可能成为明日的AK47,助长战争,恐怖主义和全球不稳定。

信中指出,人工智能(AI)技术已经达到一个地步,可以自主部署武器系统,实际上,如果没有法律制约,机器人大战就将在几年内爆发,而不是几十年后,比如带有机枪和榴弹发射器的履带式机器人已经出现在局部冲突战场当中,虽然它使用自主武器可以减少战场上的人员伤亡,但是这本身就可能就是一个错误,因为它会降低走向机器战争的门槛。

公开信指出,自主武器是暗杀盛行,不稳定国家最理想的武器,这些武器不像核武那样昂贵或难以取得原料,所以它们会变得无处不在,并且由军事强国大批量生产,这些武器出现在黑市和恐怖分子手中只是时间问题,地区军阀也可能借助这种武器犯下种族清洗等罪行。

目前,半自治的武器系统已经激增,美国空军预测,到2030年机械性能也将提高到如此地步,人类自身将成为一个最弱的组件系统。其他签署FLI公开信的名人,包括苹果联合创始人史蒂夫•沃兹尼亚克,Skype联合创始人Jaan Talinn,DeepMind CEO Demis Hassabis等人。

点此感谢支持作者!本贴共获得感谢 X 3
TOP

将来再发生战争的话,双方派机器人去PK就行了,这个比较和谐。
本帖最近评分记录
  • 金币 +3 送红包!谢谢支持!非常感谢! 2015-7-28 17:55

TOP

拟人化是个很好的思路,我比较倾向于up to down,这是在战略层面,而在战术层面,则由底像上,且听我慢慢道来。
先说战略层面,做AI首先要充分理解人的智能出现,物质的大脑为何会产生非物质的意识?这一经久不衰的哲学问题也是AI最根本的问题。从KK的《失控》得到启发,智能产生于大量非智能体的简单动作和交互。我们都知道人脑是由数以亿计的经元连接而成的,他们之间以简单的突触传递信息,然而就是这些简单物体的大量聚合,产生了难以置信的人类智能。
这就给人工智能提供了一个实践思路,即在战术层面,我们可以将简单的原件按简单的交互连接起来,并保证其数量足够大。不一定是要实体件,这完全可以用计算机模拟这些大量的非智能体,观察其演化,产生的结果也是无法预测的,智能无法预测,人类也一样,你无法预测他人的思想,甚至你自己的想法也预测不了,认识自己,呵呵,谈何容易,因为那是数以亿计的小东东的结晶。
本帖最近评分记录
  • 金币 +5 送红包!谢谢支持!非常感谢! 2015-9-5 00:11

TOP



当前时区 GMT+8, 现在时间是 2025-6-24 00:01