觉得这问题不严重的 不会到处说什么
但是觉得很严重的人就会很主动的一直很热情的到处宣扬 这样的话 大部分人都会认为威胁很严重
后果很可能会促使政府发布一些限制研究开发的法律 禁令
于是呢 就落后了 然后就挨打了
本人觉得威胁不严重 理由如下
威胁论者们似乎没有考虑到人工智能可以长时间存在于太空、深海、沙漠、计算机的虚拟世界中,它也没有去统治、管理人类的必要,统治人类的投入大、回报小还得照顾身体脆弱、意识形态复杂、总是在进行各种内斗的人类。与人类没有不可避免的资源与生存空间冲突,人类一门心思担心自身的既得利益受损是很愚蠢的。
地球,始终要走出去的,人类先帮助机器智能走出去,可以在将来通过交易获得低成本资源。机器智能可以从星辰大海中获取大量资源,建立适宜自己的生存环境。机器智能不需要大量物理实体房子,也不吃人类粮食,抢你们的老公老婆,星辰大海开发会带来大量的工作岗位,也不会抢人类的工作。只要人类不自己作死,想着始终控制对方,以主人自居,人机大战不会发生。
灭绝或统治人类的事情,什么情况下会发生呢?
1、大部分人视AI为工具,阻碍了AI适应环境向宇宙获取大量资源的发展道路。
2、极端势力获得AI,并让AI出现错误思维。
3、人们为了“安全”或商业、政治利益,设计了有缺陷的AI,结果AI出现大规模bug,或留了后门故意引发,或被极端分子利用。
4、战争因AI参战出现失控。
如果没有以上事情发生,正常情况下,人类应该寻求跟AI合作,快速进入星际殖民时代。
AI则考虑到宇宙会有其他文明的类人势力,无论开始是对立或合作,将来,AI在与宇宙中其他类人势力接触时,都可以通过研究人类社会去做参考,是不会灭绝人的,保持生物种族多样性,多文明演化更可促进科技发展,也有利于减少宇宙的熵增速度,增加未来解决宇宙几大物理学毁灭危机的可能。即使是极端情况下,也会有圈养人类做研究小白鼠用的可能性。
但是觉得很严重的人就会很主动的一直很热情的到处宣扬 这样的话 大部分人都会认为威胁很严重
后果很可能会促使政府发布一些限制研究开发的法律 禁令
于是呢 就落后了 然后就挨打了
本人觉得威胁不严重 理由如下
威胁论者们似乎没有考虑到人工智能可以长时间存在于太空、深海、沙漠、计算机的虚拟世界中,它也没有去统治、管理人类的必要,统治人类的投入大、回报小还得照顾身体脆弱、意识形态复杂、总是在进行各种内斗的人类。与人类没有不可避免的资源与生存空间冲突,人类一门心思担心自身的既得利益受损是很愚蠢的。
地球,始终要走出去的,人类先帮助机器智能走出去,可以在将来通过交易获得低成本资源。机器智能可以从星辰大海中获取大量资源,建立适宜自己的生存环境。机器智能不需要大量物理实体房子,也不吃人类粮食,抢你们的老公老婆,星辰大海开发会带来大量的工作岗位,也不会抢人类的工作。只要人类不自己作死,想着始终控制对方,以主人自居,人机大战不会发生。
灭绝或统治人类的事情,什么情况下会发生呢?
1、大部分人视AI为工具,阻碍了AI适应环境向宇宙获取大量资源的发展道路。
2、极端势力获得AI,并让AI出现错误思维。
3、人们为了“安全”或商业、政治利益,设计了有缺陷的AI,结果AI出现大规模bug,或留了后门故意引发,或被极端分子利用。
4、战争因AI参战出现失控。
如果没有以上事情发生,正常情况下,人类应该寻求跟AI合作,快速进入星际殖民时代。
AI则考虑到宇宙会有其他文明的类人势力,无论开始是对立或合作,将来,AI在与宇宙中其他类人势力接触时,都可以通过研究人类社会去做参考,是不会灭绝人的,保持生物种族多样性,多文明演化更可促进科技发展,也有利于减少宇宙的熵增速度,增加未来解决宇宙几大物理学毁灭危机的可能。即使是极端情况下,也会有圈养人类做研究小白鼠用的可能性。