文档详情

(外文翻译)---基于OD矩阵神经网络与主成分分析法的路段流量估算.doc

发布:2017-09-12约3.22万字共31页下载文档
文本预览下载声明
毕业设计(论文) 外文翻译 题 目 基于OD矩阵神经网络 与主成分分析法的路段流量估算 专 业 基于OD矩阵神经网络与的路段流量估Lorenzo Mussone1, Matteo Matteucci2 1建筑环境部科学技术,米兰理工大学,意大利mussone@polimi.it,通过Bonardi,9,20123米兰电子及信息,米兰理工大学,意大利matteucc@elet.polimi.it,通过Ponzio,34 / 5,20123米兰 Van Zuylen 和 Willumsen,1980)。该模型后来扩展到拥挤网络中优化问题,通过制定一种变分约束导致disequality双极程序。由于非凸性和非差分,这种双级方法很难得到最后的最优解决方法。弗洛里亚诺和陈(1995)制定的一种启发式方法(高斯-赛德尔式)能以限制目标的校正O / D矩阵来收敛到最优解。 其他方法是基于这些利用统计特性观察变量的模型。比如梅尔曾(1983)提出了,通过一个平常的多元分配与基质分布和为链接流动有关的贝叶斯估计。Cascetta(1984)提出的一个基于广义最小二乘估算。在1988年Cascetta、Nguyen概述的OD矩阵估算统计方法,作为通用和约束的最小二乘法和贝叶斯类型。这些研究中大多数假定一个固定的百分比或链接路径选择的用户计算有确定性的平衡分配模型。这可能导致特别是在网络非常拥挤的时候,不一致的流量和ODA矩阵。为了克服这个局限性,Cascetta(1989)提出了一种像随机变量的阐明来解释链接和路径流动,因此,就获得了这些变量平均值的价值。在这一研究方向也有其他人的论文,比如YANG等人(1992),而且在不断的改善(YANG等人,2001);这些人在1996年提出了一种使OD矩阵估算使用的同时链接流量数据和信息的链接选择比例的统计方法。GONG在1998年使用一个神经网络当作一个工具,用以求解最优化的问题,但是在同一类引用之前,由一个平均信息量最大化的问题。 本论文为了解决共享计算机技术的OD矩阵估算,特别是从道路网络流量链接的神经网络知识。它工作的一个应用多层前馈神经网络OD矩阵利用接近的典型的特征来估算;没有松动的共性,它们被假定链接一个测量和OD矩阵的连续关系上。由于前馈神经网络的学习机制,无论如何,同时期的相关链接流OD矩阵的知识使极其必要的。这个要求多亏了那不勒斯大学的运输实验(Bifulco,2004),他们汇总了所有必要的和那些通常不容易实地收集到的信息,并且具有必要的完整性。 数据预处理 信号的清理和标准化对于接下来得到一个更简单神经网络使很有必要的。其 基本思想是可以把这个问题归结为固定条件下减少问题,如果不能,则稳定之间的关系及其方差信号。在本文,我们主要集中在信号方差稳定阶段,我们没有缺失数据或有错误的测量结果。 在文学的定义,有几个稳定形成了强大的意义上,我们可以完成完整的陈述过程,但这是这不实际,因为需要指定无限对分配的约束矩(Bittanti,1986)。一个简单的方法来降低问题的稳定性二阶统计量(即信号分布可被完全描述使用前两阶矩)施加恒定的期望值和一种基于协方差函数独立于具体的时间,但是基于指标只能依赖于它们的区别。接下来时间的不变转移让我们使用这个较弱的假定期望值和发差的稳定性。 (弱)的平稳过程所涉及的是经典最小二乘法最小化的方法。自从反向误差函数最小化,通过训练程序学习神经网络的权值也属于这个框架,能够成为一个经典的梯度下降或另一种训练算法的总和,是平方误差之间(K-dimensional)目标价值和网络的输出。 误差函数在学习中可被看成是极大似然估计的神经网络的参数(如下.权重)假设在指标权重下,被中断的类型(也就是神经网络输出)同高斯噪音~ N(0, )作为一个从高斯程序取样的平均值。如果我们计算出最大似然估计的(记录数据)这意味着(也就是,最大似然估计的神经网络的权值),原来是等价于经典最小二乘法最小化。 当在程序中不稳定时,这其中的的研究方法不回取得任何结果了(例如, 与非对称误差和噪音测量)可以看出,信号的预处理需要正常化的信号的。每逢非平稳信号后仍然是趋势(~ f(t)= kt)和季节性(~ f(t)= s(t +wT))(清除(k)、w和T是不变的),我们应该探讨信号均值和方差之间的关系。一个由专业人员就函数方差平均值举得相关例子:通常当平均值增加,函数的方差也增加。在这些例子中,方差的稳定性转变是非常有用的(Montgomery e Peck, 1992 and Potts, 1999)。 第二个问题,在研究神经网络的过程中,一般来说,建模就是所谓的诅咒维数(Scott, 1992)。高维空间的研究一般很难,所以一般经常前后处理数据减
显示全部
相似文档