A.多层前向神经网络一般需要同一层神经元间相互连接
B.深度学习一般使用具有多个隐藏层的神经网络
C.训练神经网络的主要目的是学习神经元间的连接权值
D.卷积神经网络(CNN)可以逐层抽取数据特征实现自动特征学习
第1题
A、感知器模型的激活函数可导,可以通过梯度下降求解损失函数最小值
B、损失函数用于衡量当前权重在整个数据集上的总误差
C、标准神经元每个输入端具有不同的权重
D、Sigmoid函数是连续可导的,同时具有“两极分化”的特点
第2题
A、人工神经网络主要由输入层、隐藏层和输出层组成。深度学习一般要求有多个隐藏层
B、卷积神经网络具有天然的网络权重值共享和网络局部稀疏性连接的特性,这种连接恰好也符合生物神经元的稀疏性响应特性
C、卷积神经网络有两个基本概念:权值共享和池化。权值共享使权值参数的个数减小;池化可以使特征图减小,简化计算
D、损失函数层的作用是用来估算模型的预测值与实际值的差距的函数,它是一个非负的实数值函数,它的值越小,反应该网络的数据拟合性能越好,也就是其结果越逼近原始输入数据
第3题
A、符号主义与经验主义是统一的,是经验主义解决问题的方式
B、现阶段主流的人工神经网络方法属于连接主义
C、人工智能的发展经历了从“逻辑智能”到“计算智能”再到“认知智能”的转变
D、IBM的“深蓝”以及“Watson”都属于计算智能的典型代表作
第5题
A、早期的人工智能竞技方法下,计算机下棋技术已经完全以“自动推理”为主流
B、Chinook跳棋程序是状态空间搜索的里程碑,它真正实现了用计算机密集搜索来解答复杂问题
C、AlphaGo提出了一套全新的搜索求最优解的方法论
D、AlphaZero将蒙特拉洛树搜索算法生成的对弈数据,作为神经网络的训练数据
第6题
A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B、共享权重大大减少了参数的个数,降低了网络的复杂度
C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
第7题
A、神经网络输入输出节点个数由样本数量决定
B、神经网络输入和输出节点没有统一的计算方法,可以根据经验确定
C、神经网络输入输出节点个数取决于要逼近的函数输入和输出变量个数
D、以上说法都错误
第8题
A、麦卡锡提出用计算机模拟神经元及其连接,通过“人工神经网络”模拟智能
B、人工智能早期,“图灵测试”被认为是人工智能水平的标准测试模型
C、针对“智能机器如何模拟人类学习的过程和结果”,人工智能学界分为理性主义和经验主义两个流派
D、针对“机器如何模拟智能的特征”的问题,衍生出符号主义和连接主义两种思潮
第9题
A、理性主义是人工智能早期的主流思潮,至今已经完全被经验主义所取代
B、西蒙&纽维尔提出了“物理符号系统假说”、“语义网络”、“决策支持系统”
C、IBM的“深蓝”以及“Watson”系统,本质上依然使用了状态空间搜索方法
D、明斯基写了《感知机》一书,几乎完全否定了人工神经网络的作用
第10题
A、以神经网络为基础的人工智能方法与前代方法相比,根本性的方法论发生了变化,取得了突破性进展
B、谷歌“阿法狗”利用CNN模型战胜围棋选手李世石代表着人工智能第三次浪潮来临
C、目前通用人工智能尚处于起步阶段
D、人工智能的研究目的是促使智能机器会看、会听、会说、会思考、会学习、会行动
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!