谷歌CEO:担忧AI做坏事很合理 不能先创造再完善

谷歌首席执行官接受采访时表示,对人工智能技术被滥用的担忧是“非常合理的”,但同时应该相信科技行业能够负责任地规范好该技术的使用。

谷歌CEO:担忧AI做坏事很合理 不能先创造再完善

游民星空

下载游民App,掌握一手游戏情报

谷歌CEO:担忧AI做坏事很合理 不能先创造再完善

网易科技 Vicky 2018-12-15 10:25
0

  同时皮查伊表示,如果处理得当,AI可以带来“巨大的好处”,包括帮助医生通过自动扫描健康数据来检测眼疾和其他疾病。 他说:“在早期,对技术进行监管非常困难,但我确实认为公司应该自我监管,这也是为什么我们想要努力阐明一套AI原则。 可能并不是我们做的每一件事都是正确的,但我们认为开始对话很重要。”

游民星空

  皮查伊于2004年加入谷歌,11年后成为首席执行官,1月份曾称AI是“人类正在为之努力的最重要的事情之一”,并称AI对人类社会的影响可能会被证明比 “电力”的影响更“深刻”。但是,对自动化机器的追求,重新引发了人们对于硅谷的企业精神的担忧,这种企业精神-像Facebook曾经说过的那样,“快速行动,打破现状”-可能会导致强大的、不完美的技术取代众多就业岗位,伤害人们。

  在谷歌内部,其在人工智能方面的努力也引发了争议。今年早些时候,该公司曾因在一份涉及人工智能的国防部合同中所做的工作而受到严厉批评,该合同中的AI技术可以自动为汽车、建筑和其他用于军用无人机的物品贴上标签。一些员工辞职是因为他们认为谷歌在从“战争业务”中获利。

游民星空

  当被问及员工的强烈反对态度时,皮查伊告诉记者,谷歌员工是“我们文化的重要组成部分。他们肯定会有自己的意见,非常重要的意见,我非常珍视这些意见。”

  今年6月,皮查伊宣布谷歌明年不再续签与国防部的合同后,公布了一系列人工智能道德原则,其中包括了一般禁止开发系统,这些系统可能会造成伤害,损害人权或被用于违反国际公认准则的监视行为。

  谷歌在2015年发布其内部机器学习软件TensorFlow,有助于加速人工智能的广泛开发,但它同时也被用于自动创建骚扰和逼真虚假视频。这使谷歌备受批评。

责任编辑:祈求

APP精彩推荐打开游民APP查看更多

相关内容 打开游民APP查看更多

在线玩推荐更多