综观当前的人工智能(AI)发展,技术重点大致可分为“图片识别”与“自然语言处理”。而像是近年很夯的智能语音助理、机器人都离不开后者。
“复杂问题”成自然语言处理的困境
自然语言处理(Natural Language Processing;NLP)是人工智能和语言学领域的分支学科。
理论上,NLP是一种很吸引人的人机交互方式。早期的语言处理系统如SHRDLU,当它们处于一个有限世界,运用有限的词汇对谈时,表现得相当好。这使得研究员们对此系统相当乐观。然而,当把这个系统拓展到充满了充满不确定性的现实世界时,他们很快丧失了信心。
由于理解(understanding)自然语言,需要关于外在世界的广泛知识以及运用操作这些知识的能力,该技术同时也被视为一个人工智能完备(AI-complete)的问题。
比Google还快,Nvidia 53分钟就训练完自然对话AI
在NLP的领域中,最有名的莫过于Google的XLNet和Facebook的RoBERTa。为了提高BERT(通用语言理解模型)的训练速度,Google用上1024块TPU,只要76分钟就训练出模型。Facebook则使用1024个Nvidia V100 GPU。
而Nvidia今(14日)则对外宣布,团队用1472个V100 GPU在一个小时之内训练完BERT模型。
在技术层面上官方强调,以往对话式人工智能系统旷日耗时。但现在通过这部超级计算机的运算,时间可以幅缩减至53分钟,反应时间仅在2.2毫秒内。
值得一提的是,其中可对应以83亿组复杂参数内容构成的语言模型,借此让人工智能能产生更自然的对话。也可帮助开发人员将最先进的NLP模型大规模部署在各类应用中。
Nvidia表示,此系统的应用范围广,包含智能语音助理、自动驾驶汽车、 智慧城市、金融服务和医疗看护等,借此优化产品与服务体验、让人力分配可以更有效率。