即便是进行搬运,林灰实际搬出来的东西也是很克制的。
就拿尹芙·卡莉给予高度评价的预训练机制吧。
虽然将预训练机制引入到自然语言处理的机器学习方面确实在这个时空具有相当意义的开创性。
但林灰心中是清楚的,他所搬运的预训练机制只能称作为萌新水平。
林灰搬运的“预训练”是基于普通的神经网络语言模型进行的预训练。
距离真正稳妥的基于Transformer的预训练模型在应用效率方面要差得多。
至于林灰为什么不直接搬运更成熟的基于Transformer的预训练机制呢?
原因很简单,毕竟眼下还没有Transformer,现在搞出来一个基于Transformer模型岂不是滑天下之大稽。
而至于说尹芙·卡莉同样抱有很大期待的“深度学习”。
虽然林灰确实是能鼓捣出真正意义的深度学习的。
但暂时似乎没啥必要,涉及到深度学习这个方面林灰并不打算将其放在自然语言处理这个方向推出。
至于林灰不打算将真正意义上的深度学习在自然语言处理这个方向推出,为什么在现在论文中还提到深度学习?
那是因为这个时空的几乎所有神经网络学习方面的科研人员几乎都迷之自信地将他们搞得神经网络学习冠以深度学习之名。
喜欢穿越:2014请大家收藏:(www.2yq.org)穿越:2014爱言情更新速度全网最快。