文档详情

软件工程思政案例 思政素材7-神经网络技术的跌宕起伏.docx

发布:2025-05-26约小于1千字共2页下载文档
文本预览下载声明

软件工程课程思政案例

撰写人:李志星

案例名称:神经网络技术的跌宕起伏

案例内容(神经网络的历史?-九章云极DataCanvas的回答-知乎

/questionanswer/2761441450)

·1943年,沃伦·麦卡洛克和沃尔特·皮茨参考生物神经元的结构,发表了抽象的神经元模型MP。

·1949年,心理学家Hebb提出Hebb学习率,计算科学家们开始用调整权值的方法来让机器学习。

·1958年,计算科学家Rosenblatt提出了由两层神经元组成的神经网络,--“感知器”。

·1958年-1969年,许多学者和科研机构纷纷投入到神经网络的研究中,这个时期是神经网络的第一次兴起。

·1969年,Minsky出版《Perceptron》,书中论证了感知器的弱点,尤其无法解决XOR(异或)问题,而将计算层增加到两层的计算量过于庞大,提出研究更深层的网络是没有价值的。神经网络的研究陷入了冰河期。这个时期又被称为“AIwinter”。

·1986年,Rumelhar和Hinton等人提出反向传播(Backpropagation,BP)算法,解决了两层神经网络所需要的复杂计算量问题,带来了神经网络复苏的又一春。

·上世纪90年代中期,由Vapnik等人发明的SVM(SupportVectorMachines,支持向量机)算法诞生,凭借无需调参、高效、全局最优解等优势,迅速打败了神经网络算法成为主流。神经网络的研究再次陷入了冰河期。

·2006年,Hinton在《Science》和相关期刊上发表了论文,首次提出了“深度信念网络”的概念,使用“预训练”和“微调”技术大幅度减少训练多层神经网络的时间,他给多层神经网络相关的学习方法赋予了一个新名词--“深度学习”。

·2012年,CNN(ConventionalNeuralNetwork,卷积神经网络)爆发,深度学习技术在图像识别领域表现优异。

·2015年,LeCun、Bengio和Hinton在Nature上刊发“DeepLearning”,标志着深度神经网络真正被学术界所接受。

此后,关于深度神经网络的研究与应用不断涌现。

教学目的

技术的发展并不是一帆风顺的,更多的是螺旋式前进,平时遇到难题也不要气馁,说不定啥时候就柳暗花明又一村了

使用上下文

人工智能技术、神经网络

显示全部
相似文档