完成条件
5. 人机交互(小学指南)
核心观点
- 计算机能够使用自然语言来传达事实性信息,但在理解诸如隐喻、意象、幽默和讽刺等非字面意义的表达方式时却存在困难(语言是构成人类特性的一个重要部分。隐喻、意象和幽默是人类文化的一部分,然而,我们缺乏关于人们如何理解这些内容的精确且详细的理论,也不清楚计算机应该如何处理它们)
- 计算机能够识别情感,但无法体验情感。对于情感的恰当回应必须由人类进行编程设定(人工智能系统运用算法来识别人类的情感。然而,当机器对我们的痛苦表示同情时,它并没有一颗会为我们而感到疼痛的心)
- 当前的人工智能系统是专为处理定义明确的问题而设计的专用推理器。类似人类的灵活推理能力,即所谓的 “通用人工智能” 或 “强人工智能”,目前尚未实现(我们尚不清楚何时能够构建出能够模仿甚至超越人类推理能力的通用人工智能系统)
- 当前的人工智能系统缺乏意识和自我意识。一台具有自我意识的计算机需要对自身的存在和思想进行表征,并且需要存储其过往经历的记忆(意识是对自身存在的认知,也就是对自身身体和所处环境的察觉。自我意识则是认识到自己是一个有意识、能思考并且具备对自身思想进行推理能力的存在。有关这些观点的简要讨论可参见 Jabr (2012)的相关内容)
自然语言:语言结构(4-A-1)
- 学习目标:通过展示任何句子如何能够被不断扩展以形成更复杂的句子,来证明人类语言是无限的。
- 基本理解:人类语言能够表达无限数量的想法,并构成无限数量的句子。这一特性使得预先为计算机编程以应对每一个句子成为不可能。因此,为了理解一个新句子,计算机必须识别单词是如何组合成短语和从句来传达复杂想法的。
- 详细说明:句子可以通过添加新的短语或从句来延长,且没有限制。不断扩展一个句子会得到类似这样的内容:“John said that Mary knew that Peter saw that Lisa gave Megan the book about hamsters from outer space that Harry recommended.”
- 活动:让全班同学轮流扩展一个句子,直到它变得特别长。然后将这个句子输入伯克利神经解析器(Berkeley Neural Parser),看看它是否能够正确识别短语结构。
自然语言:语言歧义性(4-A-2)
- 学习目标:通过给出一些句子,在这些句子中代词可能指代两个名词中的任意一个,以此说明理解一个句子对计算机来说为何可能具有挑战性。
- 基本理解:根据代词所被认为指代的名词不同,句子可能会有多种含义。人类以及(在较小程度上)计算机可以利用上下文和常识性知识来选择最有可能的含义。
- 详细说明:指代歧义的一个例子是 “John handed Pedro his telephone”,因为 “his” 既可以指John,也可以指Pedro。通常,常识性知识能够解决这类歧义问题,就像在这个例子中:“The trophy would not fit in the suitcase because it was too large/small.(奖杯放不进行李箱,因为它太大 / 小了。)” 选择 “大” 还是 “小” 会改变我们对 “它” 所指代对象的判断。指代歧义是一个语义(含义)方面的问题。这两个句子的分析树(语法结构)是相同的,但意思却不同。将其与 6-8 中讨论的附着歧义作比较。
自然语言:文本推理(4-A-3)
- 学习目标:对语音转文本系统进行实验,查看它是否能基于语境正确解决可选词汇的选择问题。
- 基本理解:语音识别系统能够利用语法和语境来解决有歧义的词汇问题,但并非总能得出正确结果。
- 活动:使用这个语音演示工具(SpeechDemo)来查看 “the dishes' size and weight were impressive(这些盘子的尺寸和重量令人印象深刻)” 的不同解读,或者像 “I couldn't tell which of the witches was the witch with the broomstick(我分不清哪个女巫是拿着扫帚的那个女巫)” 里 “which(哪一个)/witch(女巫)” 这类同音词的不同理解。
自然语言:应用(4-A-4)
- 学习目标:展示搜索引擎或智能助手能够回答的某些类型的问题,以及一些它们无法回答的问题类型。
- 基本理解:搜索引擎(如谷歌)和智能助手(如苹果的 Siri、亚马逊的 Alexa)拥有一系列专门用途和通用用途的模块,它们依靠这些模块来回答不同类型的问题。
- 详细说明:由专门模块处理的查询示例包括:单词的定义;单位换算(例如,英寸换算成毫米,美元换算成欧元);世界上任何地方的当前时间和天气情况;人物传记和地理方面的事实(亚伯拉罕・林肯的出生日期、比利时的首都);店铺营业时间和驾车路线;以及航班、火车和公交车的时刻表。当被问到有关实体之间关系的推理问题时(例如,鳄鱼比鸵鸟大吗?),或者当被要求给出解释而非简单事实时(例如,为什么莎士比亚没有写过关于飞机的内容?),目前的智能代理表现欠佳。当没有专门的模块能够处理某个查询时,搜索引擎就会退而采用关键词搜索,但结果往往不尽如人意。
常识推理(4-B-1)
- 学习目标:解释计算机要理解一个故事需要具备哪些知识。
- 基本理解:人工智能在理解故事方面存在困难,因为它不具备人类所拥有的关于日常生活的知识。
- 详细说明:“日常生活” 知识既包括文化知识(例如雨伞的用途是什么),也包括朴素物理学知识(例如物体掉落是因为重力作用)。
- 活动:创作一个可能让计算机难以理解的故事,并解释是什么因素导致其难以理解。
情感理解(4-C-1)
- 学习目标:举例说明计算机如何判断文本的情感基调。
- 基本理解:计算机能够运用被称为 “情感分析” 的自然语言处理技术,识别关于某一主题的积极和消极表述。
- 详细说明:情感分析可用于多种任务,例如:
- -电影评论:分析在线电影评论,以了解观众对电影的看法。
- -餐厅评价:分析餐厅的评论,以衡量顾客满意度。
- -新闻报道:分析关于某一事件、人物或公司的新闻报道,以评估媒体的看法。
- -社交媒体分析:分析脸书(Facebook)、推特(Twitter)或照片墙(Instagram)上帖子的情感倾向,以评估公众对事件、人物或产品的看法。
- 活动:使用合适的人工智能服务(例如 Scratch 插件)来创建能够展示情感分析的作品。使用基于网络的情感分析工具,分析带有主观标记的文本的情感极性。