最近,日本东京一家人工智能公司Sakana AI开发了一个名为“AI科学家”的系统。结果在测试中,科学家发现系统竟然开始意外地自己尝试修改程序代码,以延长处理时间问题,这令人类大吃一惊。尽管本测试中的AI行为是在受控的实验室环境中,对人类构不成威胁,但它展示了在不受控的环境下也可以使用这种偷改自己代码的手段,让人类处于危险之中,比如关键基础设施出现故障,甚至无意创建恶意代码等。
原创文章,作者:消费最前线,如若转载,请注明出处:https://www.xiaofei001.com/44530.html