1.6 NLP中深度学习的局限性
目前,尽管深度学习在NLP任务中取得了巨大的成功,尤其是在语音识别/理解、语言建模和机器翻译方面,但目前仍然存在着一些巨大的挑战。目前基于神经网络作为黑盒的深度学习方法普遍缺乏可解释性,甚至是远离可解释性,而在NLP的理论阶段建立的“理性主义”范式中,专家设计的规则自然是可解释的。在现实工作任务中,其实是迫切需要从“黑盒”模型中得到关于预测的解释,这不仅仅是为了改进模型,也是为了给系统使用者提供有针对性的合理建议(Koh和Liang,2017)。
在许多应用中,深度学习方法已经证明其识别准确率接近或超过人类,但与人类相比,它需要更多的训练数据、功耗和计算资源。从整体统计的角度来看,其精确度的结果令人印象深刻,但从个体角度来看往往不可靠。而且,当前大多数深度学习模型没有推理和解释能力,使得它们容易遭受灾难性失败或攻击,而没有能力预见并因此防止这类失败或攻击。另外,目前的NLP模型没有考虑到通过最终的NLP系统制定和执行决策目标及计划的必要性。当前NLP中基于深度学习方法的一个局限性是理解和推理句子间关系的能力较差,尽管在句子中的词间和短语方面已经取得了巨大进步。
目前,在NLP任务中使用深度学习时,虽然我们可以使用基于(双向)LSTM的标准序列模型,且遇到任务中涉及的信息来自于另外一个数据源时可以使用端到端的方式训练整个模型,但是实际上人类对于自然语言的理解(以文本形式)需要比序列模型更复杂的结构。换句话说,当前NLP中基于序列的深度学习系统在利用模块化、结构化记忆和用于句子及更大文本进行递归、树状表示方面还存在优化的空间(Manning,2016)。
为了克服上述挑战并实现NLP作为人工智能核心领域的更大突破,有关NLP和深度学习研究人员需要在基础研究和应用研究方面做出一些里程碑式的工作。