这样的话林灰搞得神经网络学习应用纵然实际上没那么深,不冠以深度学习之名岂不是显得低人一等?
至于说尹芙·卡莉所看中的迁移思想。
虽然长久时间线来看,迁移学习确实能做到尹芙·卡莉所期待的那样跳脱出自然语言处理的小圈子迁移到全部ML领域。
yawenba.
但短时间内实际上还是比较难的。
尽管有这样那样的困难,但林灰并没有打击尹芙·卡莉的积极性。
反而给尹芙·卡莉描绘出一副更加恢弘的场景。
这画饼的样子甚至让林灰想起了前世自己的领导。
不过林灰对此丝毫不愧疚,前世部门领导画的大饼只是虚无缥缈而已。
而林灰所勾勒的蓝图却一定会实现,毕竟这在前世已经验证过了。
路再长长不过脚,终有一天林灰会将其所描绘的统统实现。
而且林灰已经在朝着他所勾勒的蓝图迈进了。
林灰在此前论文中进行补充的内容虽然并没有尹芙·卡莉期许地那么强,但至少也在进步。
甚至有些进步相对于这个时空的科研现状来说很多是从0到1的。
至于尹芙·卡莉关于人工智能在社会层面的担忧。
这个林灰倒是略知一二,前世很多大牛确实都表示过这方面的忧虑。
前世斯蒂芬·霍金、比尔·盖茨、马斯克都曾表示了对人工智能会具有自我觉知和意识的忧虑。
尤其是前世霍金,更是夸张地认为人工智能可能是人类最大的灾难,如果管理不当,会思考的机器可能终结人类文明。
至于今生这些人是否发表过同样的言论,林灰没具体关注过。
反正在林灰看来,这方面的担忧或许在理论上有片面的道理,但实际上深究起来其实很离谱。
能够真正威胁人类文明的,肯定是强人工智能,不可能是弱人工智能。
涉及到弱人工智能这些不是完全没有威胁。
但和强人工智能可以由一套系统处理各种智能行为不同。
弱人工智能针对每种智能行为都需要新的独立系统。
在这种情况下即便是弱人工智能因为某种智能性造成威胁了。
人类也只需要对该行为的独立系统进行一定的安全化设计也就ok了。
讨论弱人工智能对人类的威胁还不如去考虑一下别有用心的人滥用弱人工智能导致的危害。
在没人滥用的情况下,真正可能威胁到人类的绝不可能是弱人工智能。
归根结底,只有强人工智能才可能真正意义上威胁人类。
在外形上,强人工智能可以和人类相似(共享一套生活法则),也可与人类相差甚远(形成一套新的生活法则)。
在思想上,强人工智能可以与人类共用一套思维模式、道德准则,也可拥有专属体系的独特推理方式,成为一类“拥有灵魂的机器”。
概况地说,强人工智能具有自主意识、自主学习、自主决策的能力。
而这无疑是很容易有风险的。
尽管很容易有风险,但换个角度想一想。
上帝会创造一块他搬不动的石头吗?
同样的道理,人类为什么要造一个无法驾驭的强人工智能呢?
要知道只需要对强人工智能的底层价值取向通过相应的规则、记忆来进行限制和监控
所谓的强人工智能的叛乱是不可能的。
不要以为对强人工智能进行规则设计很麻烦。
其实和规则有关的设计几乎充斥着整个人类生活中。
就以充电器为例吧,一个不起眼的充电器里面很可能拥有着好几种充电协议进行着约束。
通过设计明文规则,限制 AI 的行动范围也不是做不到的事情。
说起来现在人们对强人工智能的担心多多少少有点杞人忧天。
强人工智能虽然是人工智能发展的终极目标。
可是强人工智能哪有那么容易实现呢?
强人工智能想达到的技术原理倒是不复杂,相应的技术指标也容易说清。
无非就是自主意识、自主学习、自主决策。
或者更加通俗地说,就是要机器去学人。
学人认识世界的方式并再基础上尝试利用机器学习进行逻辑层面的彷生从而复现人们认识世界的方式。
道理谁都懂,可是具体实行的时候却有着各种各样的难度。
前世人工智能鼓吹的很牛逼。
反正直到林灰重生前夕,那会人们也没鼓捣出强人工智能。
话说回来既然强人工智能有风险且实现起来很困难。
为什么还要追求强人工智能呢?
首先是强人工智能相比于弱人工智能会大幅度减少训练成本。
前世人工智能方面的应用普遍都是依靠大数据进行训练的。
听起来带着“大数据”三个字很高大上的样子。
但实际上操作起来就很苦逼呵呵了,而且借助于大数据很多情况下实际是不得已为之。
都知道人工智能是追求机器能够像人那样去处理问题。
本小章还未完,请点击下一页继续阅读后面精彩内容!