慢性灭亡——人类的末日
病毒蔓延的同时外星人攻打地球人类苟延残喘又遇上了地裂山崩最后太阳爆燃吞噬了地球?!好吧,这样安排得是有多仇视人类一点活路也不给。
言归正传,相比于这些可能的世界末日,有一种来自于人类自身的危险更加值得警惕——过度繁荣释放的人类惰性。
假如太阳正常燃烧了剩下的五十亿年,没有超级病毒杀死人类,地球环境变化在可控范围内,外星文明和平交流,人类文明足够幸运的继续繁荣。那么照现在的趋势,人工智能和虚拟现实技术必定会得到迅速发展。想象一下,在不远的未来,不同智力水平的人工智能产物渗透在人类社会的各个角落。先是搬运、手工等简单重复操作被机器全面取代,然后是服务业等需要简单交流的行业,接着是医生、教师等需要一定知识技术的领域,而鉴于人工智能强大的记忆计算和自我学习自我升级能力,保守来说,至少大多数工程师、科学家能够由人工智能来胜任。
相对于人类这种碳基生命体文明,人工智能这种以计算机为载体的硅基文明有着更强大的力量。碳基生命体太脆弱了,高温低温、辐射、甚至几天的缺水和不进食都足以毁灭一个碳基智慧。人类培养下一代需要十几年的光阴,却只能存活不过几十年,人类个体与个体之间的交流效率太低,代与代之间智慧传承困难,人类自身也有着懒惰、贪婪、冲动等等弱点。当人工智能发展到一定程度,具有了自我意识,它可以学习,能够思考,或许还有自己的偏好,除了没有像人类一样缓慢生长的原生肉体,又有哪一点不像一个智慧的“生命”?而人工智能这种“硅基生命体①”学习和计算的能力大大高于碳基生命体,它们的“生命”本质是程序代码数据,环境不利可以休眠,只要有备份便不会被彻底“杀死”,可以与其他个体高效交流,或者通过联网成为整体,一个超级智慧。
并非没有人类想过人工智能过度发展的后果,可是虽然人类创造了人工智能,我们却无法理解它们的思维。当那一天真正来临,它们对人类无外乎两种态度。
第一种,与人类为敌。
就像许多科幻小说和电影中描述的那样,某个没有实体的有如幽灵一般的智慧一夜觉醒,操控各种曾经为人类服务的机器人和原来人类之间互相威吓的武器打击人类的有生力量。但现实可能不会是小说和电影的结局,人类经过一场恶战最终战胜了对手。假如人工智能能发展到与人类匹敌的地步,人类社会的自动化程度恐怕也达到了巅峰,比如食物可能直接从工厂里用生物技术生产,而不是用农业技术,大多数人不再或者只需要很少量的工作,变的懒惰和追求享乐。一旦开战,生存首先是个大问题。虽然人类肯定会集中力量支援少数斗士抗争,但是失去了通讯卫星和许多自动化武器的支持,反而身陷其包围,加上对人类威胁极大而对人工智能威胁有限的核武器辐射,人类胜算又能有多少。就算人类艰难取胜,如何规避人类文明最大的帮手——人工智能的威胁也是个问题。限制过多难以实现其用途,限制过少又会有重蹈覆辙的危险。