“人工智能研究是否应当像基因技术研究一样,设立严格的研究伦理禁区,以免创造出拥有人类情感的强人工智能?”的版本间的差异

来自通约智库
跳转至: 导航搜索
(创建页面,内容为“{{4}} kooper307: 这个问题在逻辑链上本身就有问题。 禁区的建立是要先有建立禁区的资格。 人工智能是否能有人类的情怀在...”)
 
 
第1行: 第1行:
 
{{4}}
 
{{4}}
kooper307:
+
'''kooper307''':
  
 
这个问题在逻辑链上本身就有问题。
 
这个问题在逻辑链上本身就有问题。
第20行: 第20行:
 
那我应该有责任提醒邀请人,你和我一样都需要先完善或是使我们自己的认知结构和逻辑,实事求是的应对我们所面对的不期而遇。先做好自己,在不给政府和大众造成恐慌和时间、精力允许的情况下,先把自己提升起来。
 
那我应该有责任提醒邀请人,你和我一样都需要先完善或是使我们自己的认知结构和逻辑,实事求是的应对我们所面对的不期而遇。先做好自己,在不给政府和大众造成恐慌和时间、精力允许的情况下,先把自己提升起来。
 
----
 
----
[[user:why|137亿年前的水]]
+
'''[[user:why|137亿年前的水]]'''
  
 
谢谢朋友邀请,我说两句大家参考。
 
谢谢朋友邀请,我说两句大家参考。

2019年9月30日 (一) 09:55的最新版本

kooper307:

这个问题在逻辑链上本身就有问题。

禁区的建立是要先有建立禁区的资格。

人工智能是否能有人类的情怀在于人们是否具备能力能让它具备人类的情怀,说到底还是人们自身的问题。

举个例子:你给小朋友们讲微积分,然后让他们用微积分解决实际问题,或是给失明失聪的人电影票。他们可能会回应你听不懂或者无视你,即使你用尽可能将这一信息告诉双失的那个人,也有可能得到你是神经病的回应。

人工智能的产品是给需要的人生产的,但需要不是用人工智能就最好。

如果出题人是在用自己的价值观去判定和他可能毫无关系的人工智能是否能满足她生存和发展的需求,未找到答案,然后慌乱的向外求所。

能用就用,用就要承担用的责任,光进不出的那是貔貅。

另外,人工智能也是有强弱之分的,在弱中有强,强中也有弱,不能一杆子划定一切,这样非黑即白的认知逻辑就现在而言已经是被淘汰的认知逻辑,再去谈人工智能,已经是在制造混乱了,还要要我给你帮衬,和你一起傻。

那我应该有责任提醒邀请人,你和我一样都需要先完善或是使我们自己的认知结构和逻辑,实事求是的应对我们所面对的不期而遇。先做好自己,在不给政府和大众造成恐慌和时间、精力允许的情况下,先把自己提升起来。


137亿年前的水

谢谢朋友邀请,我说两句大家参考。

早在上世纪末,许多学者和关注未来的人(如比尔盖茨等)就指出,未来支撑起二十一世纪的两大技术是信息技术和生物学技术。到今天,信息技术已经改变了世界,但生物学技术好像还是“雷声大雨点小”,“只听得阵阵楼梯响,就是不见美人下楼来”。很多当年相信二十一世纪是生物学世纪、怀着宏大抱负而去大学学生物学的莘莘学子,最终发现不要说改变世界了,生物学专业简直就是个“毕业就是失业”的大坑啊!

为什么会这样?

有学者认为,这不是当年(预言生物学技术是支撑起二十一世纪的核心技术)的预言本身有错,而是因为以基因技术为代表的生物学技术带来的冲击实在太大,很多人认为应该慎之又慎,故而为生物学技术的发展套上了各种各样的枷锁,从道德伦理到法律规范的重重枷锁,这严重迟滞了生物学技术的发展速度。其实,这样的现实例子比比皆是,比如说对转基因食品技术的巨大争议就可谓众人皆知,我们就不细说了。

很多学者认为,其实和转基因技术为代表的生物学技术相比,信息技术中的人工智能技术对人类威胁性,很可能更大更严重更迫切。有句话说;“通用型的强人工智能将会是人类最后一项发明”。当在处理信息上,比人脑强大的多的通用型强人工智能出现时,人类的末日钟声就敲响了,人类失去了全部的优势和意义,也就该在历史舞台上退场、甚至是绝种了。

那么,既然也有那么多人担心通用型强人工智能的出现带来的毁灭性冲击,既然有无数人被像《终结者》系列电影中的场景吓倒,为什么这个世界还在创造发明强人工智能的道路上飞速狂奔呢?

这里的原因很多,其中最重要的是;这是“不得已而为之”,这是没有办法的事情。或者进一步讲,从经济学的层面上讲,如果没有信息技术的飞速发展,那经济没有强有力的新的增长点,经济循环将会被“消费天花板”给挡住,然后带来严重的经济危机。而这种经济危机,其严重程度,完全可能是会引发毁灭整个现代文明的第三次世界大战的。

或者说,假如没有最近几十年信息技术的飞速发展带来的经济增长,如果没有信息技术这个经济和社会发展引擎的牵引,现在人类的经济循环早就已经陷入比引发第二次世界大战的大萧条还要严重的多的经济深渊中去了。

这就是所谓的没办法。历史的演进是有其内在逻辑的,经济的发展是有其必然性的规律的。就像凯文凯利说的那样,技术的发展是有其自己独立的想法(需要),未必是人类能控制的住的。支撑二十一世纪的两大技术中的生物学技术,已经被套上了重重枷锁,如果再给以人工智能为代表的信息技术套上枷锁,那整个人类经济引擎就要变的乏力,甚至是熄火了!

所谓历史和经济发展就是“逆水行舟,不进则退”,经济引擎如果熄火,那带来的,恐怕也就只有第三次世界大战了。于是,为了保证经济循环不熄火,人们也就只好看着以强人工智能为代表的信息技术在今天这个世界上、如脱缰野马一般的飞速狂飙了。

好了,说了这么多,希望我说明白了。如果你能明白我上面讲的内容,那回答题主提出的问题也就很容易了。

我们直截了当的回答题主提出的问题,答案是;

恐怕不能!

人类旧有的传统思想和道德伦理,已经迟滞了以基因技术为代表的生物学技术的发展,如果再用传统保守的道德伦理迟滞以人工智能为代表的信息技术的发展,那会带来经济上的巨大灾难。一旦第三次世界大战因为经济危机而爆发,那一切的一切都变成了飞灰,都毫无意义可言了。所以,没有办法,就算我们知道前面可能是人类的“大坑”,那也只能鼓足勇气往前跳了!

好了,就说这些吧,上面的内容供题主和大家参考,抛砖引玉,欢迎斧正,感谢阅读,谢谢邀请,期待在交流中共同进步。