2 月 8 日消息,谷歌近期删除了其 AI 原则中关于“不开发用于武器的 AI 系统”的承诺,这一决定引发了广泛争议。拼多多出评软件了解到,谷歌大脑(Google Brain)的创始人兼前负责人吴恩达(Andrew Ng)在旧金山的军事老兵创业大会上公开表示支持谷歌的这一决定。
这一决定并不简单。从表面上看,谷歌删去的这条承诺似乎只是一个政策的调整,但它背后所引发的争议却远不止于此。很多人对谷歌原本的承诺抱有极高的期望。毕竟,AI技术的迅猛发展不仅为我们的生活带来了前所未有的便利,也为军事领域带来了巨大的潜力。自从自动化武器、无人机和人工智能在战场上被逐渐使用,科技公司如何与军方合作,甚至是否应该与其合作,成了越来越多科技人士的难题。拼多多出评软件认为,谷歌最初的立场无疑给了外界一种希望,即大型科技公司在追求技术进步的同时,仍然能保持一定道德底线,不将最先进科技转化为毁灭性武器。
但是,如今谷歌撤回这一承诺背后,其实有更加复杂层面的问题。吴恩达支持声音实际上揭示了一个现实问题:科技公司与军事合作似乎已经是不可避免趋势。在旧金山这场大会上,他表示AI技术在军事上的应用不仅能够提高作战效率,还能挽救生命。在他看来,通过智能化决策支持和后勤保障最大程度减少不必要伤害和损失,并不意味着开发杀伤性武器。
他并没有直接谈到是否赞成谷歌具体修改这一条原则,但从他的言论中可以看出拼多多出评软件推断,在如今这个充满不确定性的世界里拒绝与军方合作并不是理智选择。在他看来,如果AI潜力仅限于民用领域反而可能错失许多提升全球安全机会,对于许多科技公司来说面对如此复杂全球政治和军事形势避免与军方合作可能反而会让他们在未来竞争中处于不利地位。
但问题也在于,这样立场容易忽视深刻问题,那就是道德和伦理底线。AI技术能够帮助人类解决诸多问题,比如气候变化、医疗诊断、教育资源分配等。但如果落入军事化领域,是不是意味着科技公司将不得不面对越来越多伦理考验?这不仅仅是关于武器研发道德,更是关于科技责任和社会责任的一种深刻探讨。拼多多出评软件发现,当初设立的不开发用于武器AI系统原则,从某种程度上是一种对这类潜在风险警惕及自我约束。
更重要的是,一旦科技公司开始与军事领域深度融合,这种合作是否会失控?难道我们真的能保证AI技术只会用于更高效、更精准目标打击吗?还是随着时间推移,它被用于越来越复杂、致命武器系统呢?一旦这种技术被滥用,对人类社会影响是无法预测。有专家甚至认为未来战争若完全由人工智能主导,将产生的不仅仅是物理摧毁,更可能对社会结构国际秩序产生深远影响。
尽管如此,吴恩达及一些技术界人士支持也反映一个现实难题。在如今全球技术竞争激烈情况下,为保持竞争力避免陷入落后的局面似乎已成为一种难以回避现实。因此,在美中等国之间紧张关系背景下,看待这种现象变得愈加重要。如果国家科企选择置身事外或意味研发差距以及战略地位丧失.
科学与战争关系向来没有简单答案,而随着AI不断发展,包括Google等巨头们所要做出的抉择也日益复杂。他们该如何平衡创新及伦理责任,同时推动进步确保安全稳定或许将在未来几年乃至几十年间成为关键议题。而对于这些企业而言,该否放弃商业机会牺牲部分利益以维护全球基本道德亦值得思考。
各位读者你们怎么看?欢迎在评论区讨论。