论坛全局菜单下方 - TICKMILL 285X70论坛全局菜单下方 - ThinkMarkets285X70论坛全局菜单下方 - 荔枝返现285X70论坛全局菜单下方 -  icmarkets285X70
查看:3344回复:15
trending
注册时间2003-11-03
[转帖]进行科学预测的四项关键因素
楼主发表于:2004-04-22 15:28只看该作者倒序浏览
1楼 电梯直达
电梯直达
作者:麦奇瑞 长期以来,预测更像艺术,而不是科学。OEM依赖于直觉、面对面地交谈以及基于经验的推测来决定采购和生产的数量。今天,这些方法仍被沿用。但新一代的工具和技术可以帮助OEM提高效率,以较小的改变对公司的运营绩效产生重大的影响。 “预测越来越受重视。”普华永道咨询公司的Marilyn Stemper说,“因为经济处于下降趋势,人们把目光盯在如何降低成本之上。在这方面,各公司更加关注供应链管理,供应链上的成本降低关系到每个人的利益。” IBM全球服务部从事供应链计划的Christophe Begue说,"大多数厂商已经采用了先进的计划和调度工具,用于元器件的采购计划,或将元器件采购与生产能力相结合。" 以“客户需求为导向”的经营理念和“按订单生产(BTO)”的制造模式对预测提出了新的要求。 其中有四项因素甚为关键:1,为使预测更为准确企业需要更多的考虑各种变数,从而使供应链中的各个环节能够协同运作;2,将预测建立在更详尽的数据基础之上;3,在全球化的经营中,季节的变化和区域的差异亦非常重要;4,此外,灵活地选择和使用各种工具,将达到事半功倍的效果。 BTO对传统预测的挑战没有解决供应链全部问题的灵丹妙药。即使在预测过程中周全地考虑了各种因素,最终结果也可能与市场的实际需求有所偏差。惠普公司的产品过程组织副总裁Don Schmickrath说:“以我的意见,诀窍就是能够对这偏差有所准备和反应。”他还强调借助于各种新的和传统的工具来缓解这种错误所产生的影响。 Sun公司的战略工程部主任Randy Louie同意这一观点,他认为预测的另一重要内容是使其具有超前性和可执行性。“Sun 相信预测本身就蕴涵着不准确,因此我们在执行的过程努力去解决这一问题。”他说,“我们确实做了一些工作来改善预测的准确性,但是我们也做大量的计划工作以确保对实际需求变化做出快速反应。” 市场的动态变化与新商业模式的结合,使库存控制和供求预测复杂化。的确,按订单制造(BTO)已经改变了预测。以前,OEM按照具体的特征制造产品,意味着必须预测需要制造的数目。现在BTO模式需要向前看,除了数目估计之外,还要确定哪种选择更加流行,其中包含更多的变数。 作为一种新的制造模式,如果应用恰当,BTO能缩短交货期并增加灵活性。但如果预测不准确则可能导致库存大量积压,其结果将是OEM更不情愿来做长期预测。安富利公司IMS高级副总裁Frank Hardin说:“我们习惯来看180天的预测,头90天已经确定。现在采用BTO、零库存和5天的有效供应,30天的预测将变得非常准确。” 预测要考虑供应链各个环节 随着供应链变得更复杂,其特性和预测模型也发生了变化。“我们的供应链常常是5个等级。”惠普公司的Schmickrath说,“以塑料为例,它从HP公司开始,经过合同制造商,再后是注塑公司,接下来是化合物供应,最终是树脂制造商。仅仅等信息来慢慢处理需要8至10周。” 为了应付供应链不断增长的复杂性,惠普正在建立一个实验网站,使供应商能迅速地了解信息的变化。系统把预测和订单变化传播至整个供应链,从器件制造商、代理商、合同制造商到物料厂商。 每个合作厂家都收到一封电子信件,必须上网确认其变化。如果合作厂家没在规定时间之内答复,系统会自动地通知项目主管。以前,数据变化可能要花8至10周时间才能通过整个供应链,但新系统大大地缩短了该时间。“它是一个惊人的变化,即使它还在实验阶段。”Schmickrath说,“尽管它运行还不足以进行量化,确确实实我们已经看到了一些成功。 获取更详尽的预测数据 现在,OEM必须比以往更加准确地预测器件需求。以PC为例,可能有多种不同处理器速度、硬盘大小或存储器记忆空间的选择。“主要的问题是怎么以正常或直接的水平预测需求。”IBM的Begue说,“同时,你必须知道哪些需求是产品的不同组合。根据已有的供应和需求的不同组合,很多新的预测和库存管理工具能够提供制造信息。” 预测准确性是关键,尤其是高档产品或者单一货源的产品。Begue说:“对于关键部件,例如处理器或硬盘,并不仅仅是预测需求,而是得到恰当的供应来保证需求。” 分销商Pioneer-Standard电子公司代理众多电子产品,该公司为其销售人员配备了便携电脑,并提供客户关系管理和机会管理工具。“我们用它来管理新机会,使市场和采购部门能够了解哪些新产品已经被设计应用。”Pioneer-Standard 的运营副总裁Jim Richey说,“我们应用这些数据以便在客户开始生产时,能有足够的产品供应。” 当然,由于新兴技术的需求预测非常困难。业内人士普遍认为尽管新工具有所帮助,但经验和交流技巧仍是正确判断市场需求的重要内容。
TK29帖子1楼右侧xm竖版广告90-240
个性签名

止损有没有?有!<br>目标有没有?没有!!

广告
TK30+TK31帖子一樓廣告
TK30+TK31帖子一樓廣告
trending
注册时间2003-11-03
楼主发表于:2004-04-22 15:29只看该作者
14楼
注重季节性和区域性因素 季节和地区的差异给预测带来了更大的挑战。以PC业务为例,传统上第四季度销售要比夏季里的销售强很多。季节变化要尽早注意,尤其是在消费电子和电信市场。例如,惠普已经和供应商坐下来讨论预测下一个圣诞节时的PC需求。 同时,根据不同假日和不同文化,工作计划有必要进行相应地调整。每个地区都有它自己的业务周期。例如欧洲在8月份的业务会大幅度下降,使预测更困难。“它是地区性问题。”内存条制造商Kingston 技术公司的副总裁Wai Szeto说,“有时在美国需求增长比较缓慢,但在欧洲需求却很强劲。最近,亚洲的需求很火。” Kingston使用J.D. Edwards公司的企业管理解决方案处理其长期预测,让公司对变化做出快速反应。 Kingston 已经同它的最大客户之一东芝公司进行协同预测,来自Kingston的计划人员同东芝一起工作,并经常地分享交换信息。Szeto说:“过去,我们认为10至20周的交货期并不特别长。但如今两家公司共同分享以季为基础的预测,新系统能使合作厂商每星期都能对变化进行反应。 灵活使用预测工具 预测所采用的技术包括传统EDI所使用的最基本电子数据表,以及复杂供应链计划软件的ERP程序。基于因特网的工具是预测技术所采用的另外一种方法。 很多大公司正在或计划使用库存管理、需求预测和供应计划的软件。普华永道的Stemper说:“大多数大公司都有先进的计划解决方案在应用,但人们仍使用电子数据表和多种预测方法。”他同时认为,尽管多数公司拥有先进的工具,但许多老的方法仍在沿用。 安富利为其客户管理着5,000种以上的元器件,每周都对某一型号做出一个预测。Hardin说,应用专有的终端补给系统(PORS),结合其DRP/MRP能力,及通过EDI系统与客户和供应商及时交换信息,就能做出详细的预测。 选择正确的系统是一个挑战。许多公司购买先进的平台,然后添加一些简单的工具或在公司内部研制的工具完成整个系统。“在Sun公司,软件选择是复杂的事情,我们要考虑架构的一致性。”Louie说,“我们想寻找最好的产品,但供应商众多且各具特色。”Sun公司采用i2的Rhythm协作计划和Rapt Buy的工具管理全部的统计图表。 与解决方案提供者建立合作关系有助于工具的选择和使用。伟创力公司已经在供应链上进行投资,并与几个OEM客户合作,开始了需求模型软件的早期实施。此外,该公司还使用Baan的ERP软件及供应链解决方案来管理库存、仓储、制造和财务。 All American 半导体公司自主开发了一个称作Prism的系统,已应用了3年。该程序把现在的供应商预测和有关过去的准确信息相比较,并做出相应的调整。该公司总裁Bruce Goldberg说,市场数据和其它信息也是代理商预测要考虑的因素。 随着预测系统复杂程度的增加,培训员工有效和准确地使用工具变得非常关键。贝尔公司的CIO Bob Sturgeon认为,应用当前流行的预测技术是件麻烦事儿,新的工具并不总是与新的业务实践兼容。他说:“在当前技术和运作过程中有一个投资误区,而改变的代价是高昂的。每个人都在关注新技术,但常常是他们仍在以旧有的方法运营他们的业务。对于每个人来说,这种改变并不是同步的。” Sun公司内部建立了变化管理组织,负责处理新方案的应用而出现的问题。该部门建立实践和培训的方法,研究用户的需要,确定系统变化将影响那些工作,编制培训材料和程序。 有效利用因特网 由于因特网的普遍适用性,基于因特网的工具已被业界视为改善交流和协作的工具。“因特网是每个人都能访问应用的工具,小公司可以应用基于因特网的工具来执行预定的过程。”IBM的Begue说,“对于小公司,你可以为其提供工具,帮助他们管理供应链。” 然而业界观察人员认为,很多基于因特网的工具不能满足大的电子公司需要。该技术仍然处在初期阶段,很多工具不能处理信息流入和复杂供应链中的各种变量。“我们还没有看到有足够强大的、基于因特网的工具能够支持我们的预测。”安富利的Hardin说,“我们的交易量、元器件数量和变化非常大,这些工具难以处理如此巨大的信息量和变化。” 安富利的确在用因特网保存公共的数据库,因此合作厂商能够使用公司的站点上下载文件。无论是专用和公共的,在线市场都被用来交换详细的库存和其它的信息,以及购买或销售多余的存货。 “已经有数个在线市场在提供特定的服务范畴,如处理多余的材料,到期的产品或冷僻的元器件。”Need2Buy.com的供应链综合业务副总裁Steve McGill说,“未来的方向是全方位的在线市场才有可能成为真正的赢家。合作是非常成熟的想法并在业界已出现,如果在线市场能同其它领域供应链有效地结成合作同盟的话,将能为用户提供最大的生产率。” 有时服务主要集中在修正预测的混乱之上。惠普与一些合作厂商,如AMD、康柏、Gateway和日立共同建立了Converge Inc.,采用因特网交换信息。惠普的Schmickrath说:“因为预测有时是错误的,所以我们常常需要卖出多余的部分,或者买入需要补充的东西。”
trending
注册时间2003-11-03
楼主发表于:2004-04-22 15:36只看该作者
5楼
什么叫有效的市场分析理论? 江恩定慧   一套有效的市场分析理论应具备什么因素呢?笔者认为有以下几点。   一、解释能力。若某些分析理论宣称有效,这套理论必须以能够大量解释市场走势,解释的范围越大,理论的可能性越高。 二、局限条件。若分析理论能够解释所有市场现象,包罗万有,然而,却没法说明分析理论的局限条件,则该理论便只是形而上的哲学而已。   三、预测能力。若一套理论解释了所有走势,却无法作出市场走势的预测,则这套理论便失去有效性。   四、自我否证。若市场走势分析理论没有自我否证的能力,则这套理论便永远自圆其说,无法供分析者作实际的应用。   换言之,一套理论是否有效,解释及预测能力固然重要,但有否一个机制当理论失效时能保护应用者,便成为理论可用以否的基础。   若我们应用上面四点去衡量我们目前分析市场走势的方法,相信很多理论都会遭到否定。因此,我们应用上只能在不完整的理论中寻找较为可能的方法而已,并无绝对可言。
trending
注册时间2003-11-03
楼主发表于:2004-04-26 05:29只看该作者
9楼
作者在书中多次提到Bachelier,一位法国数学家,他的博士论文——“投机理论”(The Theory of Speculation)——开创了一个新时代。论文的开场白,他写道: “市场价格同时反映过去、现在和未来的各种事件,但是这些事件通常和价格变动并不存在明显的关系...........人为因素也会产生干扰,交易市场会根据本身的变动进一步产生反应,当前的价格波动不仅是先前价格波动的函数,同时也是当前状态的函数。决定这种波动的因素,其数目几近无限大,因此不可能期待用数学公式进行预测......。交易市场的动态变化,决不可能成为一门精确的科学。”
trending
注册时间2003-11-03
楼主发表于:2004-04-28 01:24只看该作者
11楼
自组织临界性 http://www.beiwang.com 2003-9-17北望经济学园 自从Bak,Tang还有Wiesenfeld(BTW)在1987年发表于“物理评论快报”的文章中提出“自组织临界性”(SOC)以来,这一概念就被笼罩在激烈的争论气氛之下。这一情况的出现有很多原因。一个原因是人们(对这一想法)所做出的勇敢而乐观的断言。(这一断言包含)这样一种态度:现在终于有了一种思想的方向,可以使得人们把玻尔兹曼和吉布斯(创立)的统计物理学与令人激动的非平衡物理的真实世界联系起来,并且(认为)SOC这一概念是如此的有力,可以用来解释从山脉形成到股市波动的几乎所有的事。一般来说,过于普适的理论经常会遇到来自于工作在各个专门领域的专家们一定的置疑。而且在普适和专门之间很难有一个精确的沟通。地震的许多独特的细节可以借助简单的元胞自动机的数值模拟来理解,对于地理学家看来,可能是不大现实的。对于研究进化物种间广大而且复杂的相互作用网络的生物学家来说,仅仅借助一系列具有最近邻相互作用的随机数来体现进化也只能被看作一个笑话。 那么SOC这个概念在哪些方面有效呢?让我们来考虑一些重要的问题。 (1) 我们能够把SOC作为一种定义清楚的独特现象同其他种类的行为区别开来吗? (2) 我们能够确立一种能够被称为自组织临界系统理论的特定的(理论)构架吗? (3) 对于这个世界,SOC能够告诉我们任何在1987年BTW的文章发表之前我们所不知道的事吗? (4) SOC是可预见的吗――也就是说,我们能够指出一个系统要体现出SOC行为所必须满足的充分必要条件吗?并且,假如我们能够建立一个属于SOC范畴的系统,这能真正的帮助我们理解这个系统的行为吗? 谨慎点说,我认为对这些问题给予确定的回答是有意义的。在这一章里,我们将讨论在多大程度上SOC得到了成功。 最初,自组织临界性被猜测是相互作用的多体系统所具有的典型行为。它无论是在时间还是空间上都丰富的分形结构被设想成一种与大多数多体系统相联系的一般趋势的效应-这种趋势是这些系统可以自我发展到一种临界的,标度不变的状态。 在一定标准上答案是清楚的。当然不是所有能够自组织到特别状态的系统,在受到逐渐地驱动时,会在这种自组织状态中体现出标度不变性。在沙堆上所作的实验是最初的例子(参见3.2节)。不是所有被发现的幂律行为都是由(系统)在动力学上自组织到一种临界的定态所引起的。Sethna及其合作者在巴克豪森效应噪声所作的工作是关于Sornette所说的“通过扫除不稳得到幂律”的一个非常明显,特别的例子。尽管有这些警告,当然还是有可能建立一个关于SOC系统的实用的定义的。 6.1 SOC可以在哪里出现? 我们期待SOC行为会在缓慢驱动的,相互作用占主导地位的阈值系统中出现。为了强调这些基本的动力学因素,引进一个新的缩写-SDIDT(slowly driven, interaction-dominated threshold)也许是有用的。和以前常用的强调系统行为的术语SOC相比,我们可以把这称为一种构造性的定义。如果一个系统不需要明显的外界调节,就能够表现出幂律行为,我们就称它体现出了自组织临界性;(从这个意义上说)SOC更像是一种现象学的定义,而不是一种构造性的定义。 “相互作用占主导地位”这一概念主要聚焦在系统表现出的如下两个独特特征上:因为有很多自由度的相互作用,(系统)表现出越来越多的有意思的行为;而且系统的动力学中必须是这些自由度之间的相互作用占主导地位,而不应当是这些自由度内在的动力学(占主导地位)。举例来说,可以考虑沙堆和米堆行为间的区别。沙堆看起来好像演化到了一种时间上周期分布的状态,而米堆(至少对于由某些种类的米粒组成的米堆来说)则会产生雪崩大小的广泛分布。在沙堆中,作用在每个沙砾的重力相对沙砾间的摩擦力来说占主导地位,因此阻止了横跨整个系统的沙崩产生的趋势。在米堆中,单独的米粒由于受重力场的作用而下落的趋势,往往很容易被米粒间的摩擦力所阻止。在这两种系统中,粒子都可以按大量不同的统计结构排列。而这些亚稳态的存在都可以视作由粒子间摩擦力产生的有限阈值所导致的。可是在沙堆中,下落沙砾的动能压到了摩擦力的作用。在米堆中,摩擦力相对比较强,则米粒下落的作用只是使系统在不同的亚稳态统计结构间移动。 阈值的一个作用是允许大量统计亚稳态结构的存在。为了描述阈值的局域稳定效应,Cafiero等人(1995)定义了一个有用的术语“局域刚度”。阈值的另一个作用是和如何临界性才能达到这一问题联系起来的。从我们在5.5节中研究的模型中可以看到,阈值对系统自组织到临界状态的过程是非常必要的。对类沙堆模型的重整化群分析可以发现不动吸引点,这意味着不需要良好的参数调节,这些模型的长程,长时行为就可以体现出标度不变性。相反,森林火灾模型的不动点,却被发现是推斥性的(失稳的),这就意味着这种模型是有一定的特征尺度的,这种模型的动力学不是自发演化到临界点的。当然了,除了阈值的存在外,森林火灾模型和沙堆模型还有其他不同点。但不管怎么说,我们猜想局域阈值的存在是自组织到临界态的必要条件(尽管当然不是充分条件了)。 我们还可以期望,只有在缓慢驱动的极限下,相互作用才会起主导性的作用。强驱动将不会允许系统从一个亚稳态分布释放到另一个亚稳态分布。缓慢的驱动是系统的内部特征能够控制其动力学行为所必须的。如果在Burridge-Knopoff模型中,我们相对表面以非常高的速度拖动弹簧-板块系统,弹簧将没有时间松弛到平衡结构;系统的行为将完全由外界驱动决定。因此,缓慢地驱动由于以下两个原因而是必须存在的:首先,在某种意义上,这是和线性响应理论中长长存在弱驱动的原因是类似的。第二,缓慢因而较弱的驱动是保持阈值的作用所必须的。 6.2 什么是调节? 在多大程度上,调节是必需的呢?而且,如果调节是必需的,我们所说的“自组织”还有没有意义呢?我认为,一定程度的调节是不可避免的。考虑OFC地震模型(参见第4.3节),通过数值和解析的研究,我们相信,只有在开边界条件下,模型才会表现出SOC行为,而在周期边界条件下,振荡行为就会产生。当然有人就会把这种对于边界条件的限制,看作是一种形式的调节。类似的,在不守恒情况下(α<;1/qc),为了获得幂律行为,对开放系统进行各向同性的驱动好像也是必需的。这当然也可以被看作是一种调节,即驱动项的波动被调到了为零。那么,这是否暗示着SOC行为就和平衡态统计力学中的临界行为一样,不是典型的行为呢?是否只有在非常独特的条件下,SOC行为才会发生呢?关于调节的问题是非常困难的,因为这牵涉到我们如何正确的把这个世界划分为子系统和它们的环境的问题。继续考虑周期和开边界条件的问题,真实的系统往往是有限的,因此比起周期边界条件来,开边界条件更具有现实性。但接下来问题又出现了:我们应该采用什么样的开边界条件呢?当然,只有在考虑到具体要牵涉到什么现象时,答案才能够正确的给出。系统的具体驱动方式也可以同样的给出。到底采用各向同性的还是波动式的驱动方式,需要根据被检验系统的具体背景来决定。 了解系统自组织的程度或者临界行为的鲁棒性是相当重要的。自组织到临界状态的过程必然要在一定的条件下发生;人们总能够归纳出一个模型,使它足以失去临界行为。由此问题就变为和给定的背景相关的到底是什么。就是在这一点上,一个特定系统所属的专门学科能够给过于广泛的理论近似以必要的补充。再一次考虑平衡临界点问题,如果我们单单考虑一个特定的系统本身,从理论的观点来看,临界点是非常有意思的,尤其是考虑在临界点或者接近临界点行为的特征指数时,可以作出非常漂亮的理论来。而当我们考虑特定温度范围下的典型行为时,看起来,系统相图中的一些孤立临界点好像是不相关的,但这样考虑是非常肤浅的。再比如,在细胞生物学中发现,细胞膜一般是工作在它们临界点的邻域内,这大概是为了利用在接近临界点时越来越高的生物敏感性。正是生物学系统中的相互作用把系统参数(温度,压力,浓度,等等)向临界区域进行调节。 以上就是关于问题(1),我们想说的所有东西。现在让我们转到稍微不困难点的问题(2)-(4)。尽管对于SOC来说,还没有一种和平衡系统的正则系综理论类似的完备的公式体系,我们还是在第五章中论述了一些已经发展起来的公式体系。但是对(类似平衡系统中)自由能和配分函数的等效物的寻找工作仍在进行之中。同时,随着精确解的发展和重整化群技术的成功运用,SOC研究,尤其是那些单靠计算机模拟难以解决的问题,又获得了一块基石。 问题(3)问到是否我们从SOC上面获得了一些真正新的东西。我认为,我们可以从SOC中获得的最大的教益就是,在大量的系统中,忽略掉波动的作用是会引起错误的。这一点在缓慢驱动的,相互作用占主导地位的阈值系统中是格外正确的。自组织临界性已经激起了(人们)对阈值动力学和结果具有强波动性,类似雪崩的时间演化过程的兴趣。在这些系统中,平滑的渐进的发展已经被长时期的温和的静止状态所取代了,而这些静止状态又往往被兴奋的活跃状态所打断。波动在这里是如此的巨大,以至于系统主要部分的命运往往由一次单独的兴奋爆发所决定。恐龙灭绝也许仅仅是一个包含有大量互相联系,互相作用的种群系统内部的一次波动的结果;也许不需要借助外来彗星与地球的碰撞来解释恐龙的灭绝。波动在这些系统里是如此的频繁,以至于由反常现象变成了典型的现象。当然,复杂现象远在SOC概念提出之前就引起了大家的重视,但SOC还是第一次聚焦在了一个长久以来为人们所忽视的机制上,这个机制至少在一些种类的复杂行为中是起决定作用的,我们把它标记为SDIDT系统。 最后,让我们转到问题(4),这个问题考虑的是SOC系统的可预见性。仅仅给出一些初始条件,就想从细节上预测出SOC系统的演化过程,明显是不可能的,(因为)波动(在SOC系统中)实在是太重要了!正如前面所提到的,我们还不能够列出SOC行为出现所要满足的所有的充分必要条件。尽管有这些不足,我们仍然讨论了一些似乎能够引起系统产生自组织到临界态的趋势的特定特征(比如SDIDT)。比如,在米堆和超导中发现的雪崩动力学(参见3.3和3.4节)就是SOC所预见的行为真的被发现的例子。 自组织临界性是作为非平衡态统计力学的一个分支建立起来的。从那时起,对它的现象学研究和对它进行严谨的定义研究都受到了重视。更重要的是,SOC已经使我们意识到阈值、亚稳定性、还有大规模波动在一大类的多体系统的时空行为中起了决定性的作用。这种新的认识是非常重要的,可以使我们借助自组织临界性的优势,对理论、观测、还有实验研究进行更深入的思考。 这段短文是由南开大学赵晓巍博士翻译的Henrik Jeldtoft Jensen的《Self-Organized Criticality : Emergent Complex Behavior in Physical and Biological Systems 》的最后一章。
个性签名

止损有没有?有!&lt;br&gt;目标有没有?没有!!

trending
注册时间2003-11-03
楼主发表于:2004-04-28 01:27只看该作者
2楼
从他组织走向自组织——关于制造哲理的沉思 华中科技大学博导师汉民 2001-12-17 特约主持人稿 摘要:从工业经济两百年的利害得失中剖析传统制造模式的弊端,从今天制造系统与制造过程的复杂性说明制造模式变革的必要性;比较了人造系统中传统的“他组织”模式与自然系统的自组织模式的优劣,论述了自组织的特点和机制;指出从“他组织”走向自组织乃是制造业走出后工业时期的困境的必由之路,自组织将是下一个世纪的制造哲理,也是新一代制造系统的重要特征;探讨了自组织过程对于环境的影响,导出了“熵污染”的概念,指出了减轻“熵污染”的途径;列出了与自组织制造模式有关的研究课题及待解决的关键问题,并提出了从有序度和熵的角度来认识、构造和运行制造系统的思路。 关键词:制造模式,自组织,熵污染。 一、工业经济两百年反思 在两百多年前,发生了工业革命。此后,以电力、石油为代表的能源工业和以钢铁为代表的材料工业得以飞速发展。同时,交通运输与通讯等基础设施也发展起来。在此基础上,制造工业获得突飞猛进的发展,劳动力大批地从农业转向工业,人口集中,建筑工业飞快发展,大城市开始形成。商业开始与生产分离,健全的市场经济与完善的金融体系逐步形成。庞大的现代工业体系和工业经济得以确立。 与数千年漫长的农业经济时代相比较,历时仅两百余年的工业经济发挥出了远为巨大的开发与利用自然资源的能力,创造出了惊人的社会财富和高度的现代物质文明。可是,隐藏在这些辉煌成就背后的代价却是对于自然资源的穷尽式的消耗和对于生态环的严重破坏。 人类本来是自然进化的产物,可是,当人类进化到工业经济时代以后,却以一个人造的“文明”将自己包围起来,使自己与大自然隔离,远离自然,甚至站到与自然为敌的地位。人类大规模的制造活动对于其自身的生存环境造成了不可逆转的影响,使物质与能量的品质降低,而低品质的物质和能量是无法再加以利用的。 工业经济的行为模式是对于自然过程的人为的、强制性的干预。这种模式的典型代表是制造业中的“福特模式”,其特点可以归纳为:标准化产品的大量生产、互换性原理的应用、流水作业和精细分工、刚性生产设备、专业分化和顺序决策、集中领导与分级管理。福特模式是一种“机械的模式”,它把整个企业组织得象一架机器,而每个工作人员,无论是技术人员或操作工人,都像一台机器中的零件,齿轮或螺丝钉,在那里机械地运转。这种模式将制造系统及其组成单元视为“死的”、没有任何主动性的东西,强调从制造系统外部来对之加以设计、组织和控制。这种模式适应了当时的技术水平和经济发展的需要,可是却泯灭个性,以牺牲个体的独立自主性来成全整体的协调一致性。 二、急剧膨胀的复杂性 众所周知,现代制造系统和制造过程日趋复杂。导致今天的制造系统复杂化的因素主要有三: 其一,现代产品的结构愈来愈复杂、功能越来越多样,而制造工艺也要求越来越精细。复杂的产品、精细的工艺极大地提高了制造系统和制造过程的复杂程度。 其二,消费日趋个性化、多样化。大批大量制造的标准化的、规格划一的产品不再为顾客所青睐。制造企业不得不转向多品种小批量的生产模式,而且必须加快产品更新换代的速度。“以产品为中心”的生产正在转变为“以顾客为中心”的生产。这些要求都极大地增加了制造系统和制造过程的组织、运行与调度的复杂程度; 第三,在全球经济一体化的形势下,跨行业、跨地区、乃至于跨国的制造企业和制造资源正在集结成一个庞大的、复杂的制造网络。这个网络每时每刻都在遭受动态的扰动,经历着动态的调整。这么一个庞大、复杂的系统,其组织和运行的复杂性是可想而知的。 以上是就制造业内部来说。从外部环境来看,世界正在进入知识经济时代 [1]。在知识经济成长的过程中,制造业面临着严峻的挑战,经历着十分深刻的变化。其中最突出的变化是知识化、服务化及网络化。同时,我国的制造业正在经历着从计划经济向市场经济转变和从粗放型经营向集约经营经营转变。所有这些变化都促进了制造系统复杂化的进程。 现代制造系统的复杂性首先表现在它的固有的非线性上;其次,表现在多自律单元的协同及其突现行为上;第三,表现在它的开放性上;第四,是它的非平衡性;最后,制造系统是生存在一个随机变化、难以预测的环境中,它必须具备“随机应变”的能力。对于如此复杂的系统,以任何传统的运行模式与控制方法都是绝对无法驾驭的,而必须更新思想方法与行为模式,寻求新的途径与手段。
个性签名

止损有没有?有!&lt;br&gt;目标有没有?没有!!

trending
注册时间2003-11-03
楼主发表于:2004-04-28 01:28只看该作者
6楼
三、自组织的概念、特征和机制 许多天然的或人造的复杂系统都是由大量的单元构成的,例如:生命系统、生物群落、生态系统、人类社会、消费市场以及制造系统等等。在如何组织、运行和优化这类由大量单元所构成的系统上,自然造化与人工经营之间存在明显的分野:前述从外部来对系统加以设计、组织和控制的模式可称为是“他组织”的模式,迄今包括人类的制造系统在内的几乎所有的人造系统都是采用“他组织”的模式;而以生命现象为代表的自然系统则采取了完全不同的路线——自组织的路线。 1.自组织的概念 “自组织”是现代非线性科学和非平衡态热力学[2,3,4]的最令人惊异的发现之一。基于对物种起源、生物进化和社会发展等过程的深入观察和研究,一些新兴的横断学科从不同的角度对“自组织”的概念给予了界说: 从系统论的观点来说,“自组织”是指一个系统在内在机制的驱动下,自行从简单向复杂、从粗糙向细致方向发展,不断地提高自身的复杂度和精细度的过程; 从热力学的观点来说,“自组织”是指一个系统通过与外界交换物质、能量和信息,而不断地降低自身的熵含量,提高其有序度的过程; 从统计力学的观点来说,“自组织”是指一个系统自发地从最可几状态向几率较低的方向迁移的过程; 从进化论的观点来说,“自组织”是指一个系统在“遗传”、“变异”和“优胜劣汰”机制的作用下,其组织结构和运行模式不断地自我完善,从而不断提高其对于环境的适应能力的过程。C. R. Darwin的生物进化论的最大功绩就是排除了外因的主宰作用,首次从内在机制上、从一个自组织的发展过程中来解释物种的起源和生物的进化。 2.自组织的特征 自组织现象是包括生命系统在内的许多天然系统中,最引人入胜而又发人深思的一种行为。与“他组织”相比较,自组织系统的行为模式具有以下突出的特征: 信息共享系统中每一个单元都掌握全套的“游戏规则”和行为准则,这一部分信息相当于生物DNA中的遗传信息,为所有的细胞所共享; 单元自律自组织系统中的组成单元具有独立决策的能力,在“游戏规则”的约束下,每一个单元有权决定决定它自己的对策与下一步的行动; 短程通讯每个单元在决定自己的对策和行为时,除了根据它自身的状态以外,往往还要了解与它临近的单元的状态,单元之间通讯的距离比起系统的宏观特征尺度来,要小得多,而所得到的信息往往也是不完整的、非良态的; 微观决策每个单元所作出的决策只关乎它自己的行为,而与系统中其它单元的行为无关;所有单元各自的行为的总和,决定整个系统的宏观行为;自组织系统一般并不需要关乎整个系统的宏观决策; 并行操作系统中各个单元的决策与行动是并行的,并不需要按什么标准来排队,以决定其决策与行动顺序; 整体协调在诸单元并行决策与行动的情况下,系统结构和游戏规则保证了整个系统的协调一致性和稳定性; 迭代趋优自组织系统的宏观调整和演化并非一蹴而就,而是在反复迭代中不断趋于优化;事实上,这类系统一般无法达到平衡态,而往往处在远离平衡态的区域进行永无休止的调整和演化;一旦静止下来,就表示这类系统的“死亡”。 3.自组织的机制 物种起源、生物进化和社会发展等自组织过程的发展方向是从混乱走向有序,可是热力学第二定律却断言一个孤立系统必然从有序走向混乱。这曾经是一个长期使人困惑的问题,在学术界引发过激烈的争论。宗教界人士甚至据以“证明”上帝这一角色的必要性。本世纪最后30年对关于自组织机制的研究从不同的角度对于这一使人困惑的问题给出了理论上的解释: 耗散结构理论[2,3]认为一个远离平衡态的非线性、开放系统通过与外界交换物质和能量,可以提高自身的有序度,降低熵含量。这一理论认为“非平衡”是有序之源。 协同学[4]认为由大量微小单元组成的系统,在一定的外部条件下,通过各单元的相互作用,可以自发地协调各个单元的行为,从而产生宏观的空间结构、时间结构与功能结构。这一理论认为在临界状态(分叉点)上,偶然的涨落经过放大,将起到推进有序化的作用。 元胞自动机[5]以计算机建模和仿真的方法,研究由类似于生物细胞的大量并行个体所组成的系统的宏观行为与规律。在研究方法上多采用离散的空间布局和时间间隔。一个典型的元胞自动机是所谓“生命游戏”,它形象地表明,随机的初始布局是如何经过单元之间的短程通讯、微观决策、并行协调和反复迭代,最后演化成为稳定、有序的空间结构。 人工生命[6,7]以计算机建模和仿真的方法研究生命或生态系统的组织结构、功能及其主要的行为特征,包括遗传、个体复制、发育和自组织等等。人工生命的研究认为生命的真谛在于其组织结构和行为特征,而不必拘泥于这些结构与特征所依托它的物质材料。人工生命的研究表明,在秩序与混沌的边沿存在一片孕育生命的神奇的绿洲,自组织现象就在此发生。 四、新的哲理与新的制造体系 如何适应经济发展和社会进步的需要,如何驾御后工业时期制造系统和制造过程的不断膨胀的复杂性,作为万物之灵的人类从他们自己身上找到了解决问题的钥匙——从生命现象中学习组织与运行复杂系统的方法和技巧,是解决今天制造业所面临的种种难题的一条有效的、甚至是必然的出路。这是因为,地球上的生物在漫长的进化岁月中所积累的种种优良品性,为解决人类制造活动中的各种难题提供了范例和指南[8]。生物系统,从细胞到组织、到个体、直到群体(社会),都具有极其复杂的结构。一个小小细胞的复杂程度甚至也不亚于一个社会。大自然却自有一套绝妙的方法来组织与运行生命系统,这就是自组织的方法。今天,人们所正在研究与推行的分布式网络化制造系统、Multi-Agent系统[9]、敏捷制造系统和仿生制造系统[8]等等,其实,是在不同程度上、有意或无意地学习与借鉴他们自身内秉的自组织的结构与运行模式。 人类的制造系统正在从传统的“他组织”走向自组织。其中当然包含技术上的进步与升级,但首先是一种观念上的转变、哲理上的转变,这是一种世纪性的转变。 下一个世纪的制造必然是自组织的。自组织的制造系统将不再是一堆死的、被动的设备和物料的集合,而是由一系列具有自身利益界定和自主决策能力的单元(Agent)所组成的整体[9]。生产设备将不再是被动地被操作、被调度,而能够按照其所采集到的周围的信息,根据当时的实际情况,自主地采取正确的对策与行动。在“游戏规则”许可的限度内,每一台设备都最大限度地争取其自身的“利益”,同时,也为整体作出一份贡献。物料或毛坯也不再是简单地被加工,而能够根据零件或产品生产的要求,主动地选择最合适的加工路线、加工设备及工艺参数。生产任务与生产设备之间甚至还可以仿照人类的社会行为,举行“招标和投标”,签定“合作协议”。这种制造系统可以表现出极其复杂的行为和特性,但它们并不需要技术人员从外部来加以调度。人类专家所需要做的是设计好“游戏规则”,并准确定义每个单元的“自身利益”和行为策略。 不能把“自组织”的概念与“自动化”或“智能化”混为一谈,后两者是对已经存在的、确定的系统而言的,而前者着眼的则是从无到有、从小到大、从粗到精和从劣到优的进化过程或各种复杂的突现(emerging)行为。 与人为的“他组织”系统比较起来,按照自组织原则构建和运行的制造系统具有以下突出的优点: 更强的驾驭复杂性的能力非常复杂的行为模式可以由按自律原则组织起来的、大量相互作用的、相对简单的单元来实现; 更强的适应环境的能力各自律单元可以自作主张,见机行事,而不必待命于或听命于某个指挥中心,因此,对于环境的随机变化和突然扰动,具有更为灵活机动的响应特性;由于自组织系统的运行和演化是基于大量单元各自的微观决策,而少量单元的决策失误或者损毁,并无关宏旨,因而这类系统具有更强的鲁棒性和更强的适应环境扰动的能力; 更强的自行趋优的能力自组织系统一旦开始运行,它就具有一种“自提升”的功能,能够、而且必须在内部机制的作用下,不断地优化其组织结构,完善其运行模式
trending
注册时间2003-11-03
楼主发表于:2004-04-28 01:33只看该作者
7楼
五、自组织过程对于环境的影响 1.自组织过程的伴随过程 如前所述,自组织现象是一种降低系统的熵含量、提高其有序度的过程,是系统的状态由高几率向低几率迁移的过程。如所周知,热力学第二定律和统计力学认为这样的变化是不会自发地产生的[2]。可是,它确实是发生了,其中的奥妙在于系统的开放性——一个开放系统的熵变化由两项组成:DS =DSi +DSe,其中DS是过程总的熵变化, 对于自组织过程来说,有DS <; 0;DSi 表示自组织系统内部的熵产生,按照热力学第二定律,必有DSi >; 0;因此,反映系统与外部熵交换的那 一项DSe必然为负,即DSe<; 0。这就是说,自组织系统有赖于外界给它输送负熵,以提高其有序度。因此,与自组织过程相伴的必然有另一个“伴随过程”,后者向前者输送负熵,也就是输送有序度或信息。 人类的制造过程虽然是“他组织”的,但也一个提高产品有序度、降低其熵含量的过程,因此,以上论述对于制造过程也同样地适合。 2.熵污染 由上述分析可知,制造系统不仅需要从外界输入物质材料和能量,而且还需要从外界吸取负熵或有序度。于是,每一件精美的产品问世,必然在世界上另外某一个地方造成了熵的增加,而且环境的熵增必然大于产品的熵减,从而使得我们这个已经十分拥挤的世界变得更加紊乱。这种现象称为“熵污染”。 熵污染是由热力学第二定律决定的,而与制造过程的具体的物理特性无关。如前所述,两百多年来工业经济发展的历史已经充分地表明了“熵污染”的严重性。 制造过程的“熵污染”虽然不可避免,但可以大大地减轻。问题症结在于传统的“他组织”的制造过程中,由于人为的干预,对于环境造成了大量不必要的熵增,使得“熵污染”更趋严重。近平衡态热力学有一个“最小能量耗散原理”[2,3]:在满足约束条件的前提下,非平衡定态的熵产生趋于最小,能量耗散趋于最低,而任何外加的强制或人为的干预必然使熵产生或能量耗散增加。关于切削基础理论的研究充分证明了这一规律的正确性:大量的实验、观察和理论分析表明,在满足由工艺参数所设定的约束条件的前提下,反映一个切削过程内部物理特征的状态参数,总是取使切削功率(或主切削力)趋于极小的“自然值”。以任何方式人为地强制状态参数偏离其自然值,必然导致切削功率、或主切削力增加。此即金属切削过程中的“最小能量原理”[10],这一原理为现代切削加工工序中种种复杂现象的解释、建模、预测和优化提供了理论上的依据。 传统的成形加工工艺都是人为强制性的成形,这类方法导致能量的巨大浪费和不必要的熵增。仅以机械加工为例:金属切削中所消耗的能量绝大部分消耗在切屑的变形上,这些能量消耗转化成切削热,耗散到环境中,成为熵污染;可是,切屑的变形和发热并非我们的目的!切削加工的目的在于形成新的表面,而消耗在形成新表面方面的能量却只占微不足道的比例! 此外,在成形加工中还存在一种人们未曾注意到的浪费,即信息的浪费。这里仍以机械加工为例[11,12]:如果需要从长度为100mm的棒料上截下某个长度的一段,要求的截断精度为0.2mm,那么,这一尺寸的设计信息量为I = log2(100/0.2) = 8.966 bit;如果以数控设备来进行加工,其行程长度为1000mm,而定位精度为0.02mm,则在设备调整中所注入的工艺信息量为I’ = log2 (1000/0.02) = 15.61 bit。因此,此工序的信息利用率仅为Q = I/ I’ = 57%。前面说过,注入工艺系统的信息是从环境中抽取的,信息的浪费归根结底增加了环境的熵增和环境的负担。 总之,人为的工艺和人为的结构往往不能最节省地利用能量和信息,从而给环境造成不必要的熵增。而采取自组织策略,实施自组织制造或仿生制造,可以将环境熵增降低到最低限度。从这个意义上说,自组织制造是真正的绿色制造。 六、研究课题与待解决的关键问题 人类制造系统的各个部分和制造过程的各个环节都存在“自组织”的问题,都面临一些急需解决的科学和技术问题。 1)产品的自组织成形工艺 迄今人类所采用的零件加工成形方法均是在外界的强制作用下的成形,属于“它成形”。生物的生长、发育则是一种在内在基因控制下,通过细胞并行分裂而成形,称为“自成形”,或自组织成形。生物界或人类自身已经证明,以“自成形”方法能够产生非常精巧、复杂的结构。在自组织成形方面,需要解决的关键问题包括: 由大量基元的自律行为生成宏观模式的原理及其数学模型; 在内在基因控制下、由“种子”发育成形的新一代快速自成形方法; 基于分子自装配作用的微型零件或纳米零件的制作工艺; 基于单元自律的新一代曲面拟合与数控编程方法。 2)自组织设计的原理和方法[13,14] 与传统的设计方法不同,自组织设计将是“自下而上”的和并行的。先设计产品的“基元”,每个基元中均封装整个产品全生命周期的信息与特征,相当于生物的“遗传信息与基因”。基元发生“分裂”(复制),自动“发育”(装配)成产品。产品的设计与修改均在基元中的“基因”上进行。事实上,自组织设计不是直接设计产品,而是设计产品的自组织生成的规则与环境。 需要解决的关键问题包括: “基元”的内涵和性质,“基元”之间以及“基元”与环境之间的相互作用,“基元”的分裂、分化及其自动装配的原理和模型; 特征信息编码,尤其是形状特征、尺寸特征、结构特征及材质特征信息的编码方法,及其在产品模型和产品工艺中的应用; 在产品信息模型的驱动下,工艺系统的自组织和工艺参数的自生成; 基因型(genotype)、表现型(phenotype)和等位基因(alleles)等概念在产品多样化系列设计中的应用, 生物遗传信息在储存、复制、转录及翻译中的防错、容错方法及个体复制中的质量保障技术在产品设计及工艺设计中的应用。 3)基于多自律单元协同的分布式控制[9] 模仿生物个体和群落的组织结构和运行模式,研究基于多自律单元协同的分布式、网络化系统,及其在网络化制造中的应用。 需要解决的键问题包括: 基于单元自律的(multi-agent)制造系统的动力学特性及其熵演化机制; Agents的行为策略的设计和“教育与培训”、Agents之间通讯关系和通讯强度的设计; 基于诸Agents“个性”的系统宏观特性预测。 4)基于进化机制的寻优策略 由于现代产品和制造系统的复杂性,各种传统的优化方法往往无能为力。而且,迄今所采用的各种优化方法都是在数量空间中进行的,而产品及其制造系统的优化却往往需要在特征空间(或语义空间)中进行。须摹仿生物进化过程中的自组织机制,研究特征空间中的寻优策略,及其在设计优化和工艺优化中的应用。 需要解决的关键问题包括: 生物在进化过程中的寻优机制,抵御“组合爆炸”和防止陷入“局部最优”的策略,及其在产品优化与工艺优化中的应用; 特征空间中的寻优方法与基因(GA)算法。 5)制造过程中的信息转化与熵平衡 在制造过程中各个方面的信息是在相互转换和不断流动的。制造系统中各个子系统之间、制造系统与环境之间不仅交换物质和能量,而且交换信息或熵。信息的转换和熵的消长包含着自组织的精粹,需要加以认真地、定量地研究。 需要解决的关键问题包括: 制造系统、制造过程和产品的信息含量及其复杂度的计算方法; 制造过程中各种信息的转换当量和信息利用率的计算; 制造系统、制造过程、产品及环境的熵增的测度理论和定量计算; 制造系统与制造过程的熵平衡,熵污染的估算; 制造系统、制造过程及产品的复杂度理论。 七、结语 包括生命系统在内的所有的自然系统都是自组织的,如果不承认这一点,就必然要求助于“上帝”,而上帝是不存在的; 迄今包括制造系统在内的大多数人造系统都是“他组织”的,之所以如此,是因为有人为的介入和强制性的干预; 由于长期的进化和积累,自然界的自组织系统远比人造的“他组织”系统高明。这是因为,与漫长的自然进化史相比较,人类短暂的文明史实在是微不足道的,在其间所积累起来的知识和才能尚远不足以与自然进化的效果相抗衡; 在人类的制造活动中实施自组织,将是新一代制造技术的重要特征,也是人类师法自然、顺乎自然和回归自然的突出表现; 对自组织的研究要求从一个新的角度——有序度和熵的角度——来认识、构造和运行制造系统,而这一思路必将开拓了一个十分广阔的新的研究领域。 曾发表于《中国机械工程》,第11卷,第1~2期(合刊), pp. 79~84, 2000. 2
trending
注册时间2003-11-03
楼主发表于:2004-04-29 16:22只看该作者
10楼
研究突发事件---数学金融学的重要课题编辑:丢oO丢oO 出处:金融论文在线 [03-26] 作者:沈致远 李训经 雍炯敏 继1997年东南亚金融危机后,1998年美国又发生了长期资本管理(LTCM)基金事件。两者均由突发事件所引起,造成了震撼全球的金融危机。突发事件在金融领域中具有不容忽视的影响,它是数学金融学的一个重要课题。 从LTCM事件谈起 1997年亚洲爆发了震撼全球的金融危机,至今仍余波荡漾。究其根本原因,可说虽然是“冰冻三尺,非一日之寒”,而其直接原因却在于美国的量子基金对泰国外行市场突然袭击。1998年9月爆发的美国LTCM基金危机事件,震撼美国金融界,波及全世界,这一危机也是由于一个突发事件----俄罗斯政府宣布推迟偿还短期国债券所触发的。 LTCM基金是于1993年建立的“对冲”(hedge)基金,资金额为35亿美元,从事各种债券衍生物交易,由华尔街债券投资高手梅里韦瑟(J.W.Meriwether)主持。其合伙人中包括著名的数学金融学家斯科尔斯(M.S.Scholes)和默顿(R.C.Merton),他们参与建立的“期权定价公式”(即布莱克-斯科尔斯公式)为债券衍生物交易者广泛应用。两位因此获得者1997年诺贝尔经济学奖。LTCM基金的投资策略是根据数学金融学理论,建立模型,编制程序,运用计算机预测债券价格走向。具体做法是将各种债券历年的价格输入计算机,从中找出统计相关规律。投资者将债券分为两类:第一类是美国的联邦公券,由美国联邦政府保证,几乎没有风险;第二类是企业或发展中国家征服发行的债券,风险较大。LTCM基金通过统计发现,两类债券价格的波动基本同步,涨则齐涨,跌则齐跌,且通常两者间保持一定的平均差价。当通过计算机发现个别债券的市价偏离平均值时,若及时买进或卖出,就可在价格回到平均值时赚取利润。妙的是在一定范围内,无论如何价格上涨或下跌,按这种方法投资都可以获利。难怪LTCM基金在1994年3月至1997年12月的三年多中,资金增长高达300%。不仅其合伙人和投资者发了大财,各大银行为能从中分一杯羹,也争着借钱给他们,致使LTCM基金的运用资金与资本之比竟高达25:1。 天有不测风云!1998年8月俄罗斯政府突然宣布推迟偿还短期国债券,这一突发事件触发了群起抛售第二类债券的狂潮,其价格直线下跌,而且很难找到买主。与此同时,投资者为了保本,纷纷寻求最安全的避风港,将巨额资金转向购买美国政府担保的联邦公债。其价格一路飞升到历史新高。这种情况与LTCM计算机所依据的两类债券同步涨跌之统计规律刚好相反,原先的理论,模型和程序全都失灵。LTCM基金下错了注而损失惨重。雪上加霜的是,他们不但未随机应变及时撤出资金,而是对自己的理论模型过分自信,反而投入更多的资金以期反败为胜。就这样越陷越深。到9月下旬LTCM基金的亏损高达44%而濒临破产。其直接涉及金额为1000亿美元,而间接牵连的金额竟高达10000亿美元!如果任其倒闭,将引起连锁反应,造成严重的信誉危机,后果不堪设想。 由于LTCM基金亏损的金额过于庞大,而且涉及到两位诺贝尔经济学奖德主,这对数学金融的负面影响可想而知。华尔街有些人已在议论,开始怀疑数学金融学的使用性。有的甚至宣称:永远不向由数学金融学家主持的基金投资,数学金融学面临挑战。 LTCM基金事件爆发以后,美国各报刊之报道,评论,分析连篇累牍,焦点集中在为什么过去如此灵验的统计预测理论竟会突然失灵?多数人的共识是,布莱克-斯科尔斯理论本身并没有错,错在将之应用于不适当的条件下。本文作者之一在LTCM事件发生之前四个月著文分析基于随机过程的预测理论,文中将随机过程分为平稳的,似稳的以及非稳的三类,明确指出:“第三类随机过程是具有快变的或突变达的概率分布,可称为‘非稳随机过程’。对于这种非稳过程,概率分布实际上已失去意义,前述的基于概率分布的预测理论完全不适用,必须另辟途径,这也可以从自然科学类似的情形中得到启发。突变现象也存在于自然界中,……”此次正是俄罗斯政府宣布推迟偿还短期国债券这一突发事件,导致了LTCM基金的统计预测理论失灵,而且遭受损失的并非LTCM基金一家,其他基金以及华尔街的一些大银行和投资公司也都损失不赀。 经典的布莱克‐斯科尔斯公式 布莱克‐斯科尔斯公式可以认为是,一种在具有不确定性的债券市场中寻求无风险套利投资组合的理论。欧式期权定价的经典布莱克‐斯科尔斯公式,基于由几个方程组成的一个市场模型。其中,关于无风险债券价格的方程,只和利率r有关;而关于原生股票价格的方程,则除了与平均回报率b有关以外,还含有一个系数为σ的标准布朗运动的“微分”。当r,b,σ均为常数时,欧式买入期权(European call option)的价格θ就可以用精确的公式写出来,这就是著名的布莱克‐斯科尔斯公式。由此可以获得相应的“套利”投资组合。布莱克‐斯科尔斯公式自1973年发表以来,被投资者广泛应用,由此而形成的布莱克‐斯科尔斯理论成了期权投资理论的经典,促进了债券衍生物时常的蓬勃发展。有人甚至说。布莱克‐斯科尔斯理论开辟了债券衍生物交易这个新行业。 笔者以为,上述投资组合理论可称为经典布莱克‐斯科尔斯理论。它尽管在实践中极为成功,但也有其局限性。应用时如不加注意,就会出问题。 局限性之一:经典布莱克‐斯科尔斯理论基于平稳的完备的市场假设,即r,b,σ均为常数,且σ>;0,但在实际的市场中它们都不一定是常数,而且很可能会有跳跃。 局限性之二:经典布莱克‐斯科尔斯理论假定所有投资者都是散户,而实际的市场中大户的影响不容忽视。特别是在不成熟的市场中,有时大户具有决定性的操纵作用。量子基金在东南亚金融危机中扮演的角色即为一例。在这种情况下,b和σ均依赖于投资者的行为,原生股票价格的微分方程变为非线性的。 经典布莱克‐斯科尔斯理论基于平稳市场的假定,属于“平稳随机过程”,在其适用条件下十分有效。事实上,期权投资者多年来一直在应用,LTCM基金也确实在过去三年多中赚了大钱。这次LTCM基金的失败并非由于布莱克‐斯科尔斯理论不对,而是因为突发事件袭来时,市场变得很不平稳,原来的“平稳随机过程"变成了“非稳随机过程”。条件变了,原来的统计规律不再适用了。由此可见,突发事件可以使原本有效的统计规律在新的条件下失效。 突发实件的机制 研究突发事件首先必须弄清其机制。只有弄清了机制才能分析其前兆,研究预警的方法及因此之道。突发事件并不限于金融领域,也存在于自然界及技术领域中。而且各个不同领域中的突发事件具有一定的共性,按照其机制可大致分为以下两大类。   “能量”积累型 地震是典型的例子。地震的发生,是地壳中应力所积累的能量超过所能承受的临界值后突然的释放。积累的能量越多,地震的威力越大。此外,如火山爆发也属于这一类型。如果将“能量”作广义解释,也可以推广到社会经济领域。泡沫经济的破灭就可以看作是“能量“积累型,这里的“能量”就是被人为抬高的产业之虚假价值。这种虚假价值不断积累,直至其经济基础无法承担时,就会突然崩溃。积累的虚假价值越多,突发事件的威力就越大。日本泡沫经济在1990年初崩溃后,至今已九年尚未恢复,其重要原因之一就是房地产所积累的虚假价值过分庞大之故。   “放大”型 原子弹的爆发是典型的例子。在原子弹的裂变反应中,一个中子击中铀核使之分裂而释放核能,同时放出二至伞个中子,这是一级反应。放出的中子再击中铀核产生二级反应,释放更多的核能,放出更多的中子……。以此类推,释放的核能及中子数均按反应级级数以指数放大,很快因起核爆炸。这是一种多级相联的“级联放大”,此外,放大电路中由于正反馈而造成的不稳定性,以及非线性系统的“张弛”震荡等也属于“放大”型。这里正反馈的作用等效于级联。在社会、经济及金融等领域中也有类似的情形,例如企业间达的连锁债务就有可能导致“级联放大”,即由于一家倒闭而引起一系列债主的相继倒闭,甚至可能触发金融市场的崩溃。这次LTCM基金的危机,如果不是美国政府及时介入,促使15家大银行注入35亿美元解困,就很可因LTCM基金倒闭而引起“级联放大”,造成整个金融界的信用危机。
trending
注册时间2003-11-03
楼主发表于:2004-04-29 16:23只看该作者
8楼
金融界还有一种常用的术语,即所谓“杠杆作用”(leverage)。杠杆作用愿意为以小力产生大力,此处指以小钱控制大钱。这也属于“放大”类型。例如LTCM基金不仅大量利用银行贷款造成极高的“运用资金与资本之比”,而且还利用期货交易到交割时才需付款的规定,大做买空卖空的无本交易,使其利用“杠杆作用”投资所涉及的资金高达10000亿美元的天文数字。一旦出问题,这种突发事件的震撼力是惊人的。 金融突发事件之复杂性 金融突发事件要比自然界的或技术的突发事件复杂得多,其复杂性表现在以下几个方面。   多因素性 对金融突发事件而言,除了金融诸因素外,还涉及到政治、经济、军事、社会、心理等多种因素。LTCM事件的起因本为经济因素--俄罗斯政府宣布推迟偿还短期债券,而俄罗斯经济在世界经济中所占分额甚少,之所以能掀起如此巨大风波,是因为心理因素的“放大”作用:投资者突然感受到第二类债券的高风险,竞相抛售,才造成波及全球的金融风暴。可见心理因素不容忽视,必须将其计及。   非线性 影响金融突发事件的不仅有多种因素,而且各个因素之间一般具有错综复杂的相互作用,即为非线性的关系。例如,大户的动作会影响到市场及散户的行为。用数学语言说就是:多种因素共同作用所产生的结果,并不等于各个因素分别作用时结果的线性叠加。突发事件的理论模型必须包含非线性项,这种非线性理论处理起来要比线性理论复杂得多。   不确定性 金融现象一般都带有不确定性,而突发事件尤甚。如何处理这种不确定性是研究突发事件的关键之一。例如,1998年8月间俄罗斯经济已濒临破产边缘,几乎可以确定某种事件将会发生,但对于投资者更具有实用价值的是:到底会发生什么事件?在何时发生?这些具有较大的不确定性。 由此可知,金融突发事件的机制不像自然界或技术领域中的那样界限分明,往往具有综合性。例如,1990年日本泡沫经济的破灭,其机制固然是由于房地产等虚假价值的积累,但由此触发的金融危机却也包含着银行等金融机构连锁债务的级联放大效应。 预警方法 对冲基金之“对冲”,其目的就在于利用“对冲”来避险(有人将hedge fund译为“避险基金”)。具有讽刺意义的是,原本设计为避险的基金,竟因突发事件而造成震撼金融界的高风险。华尔街的大型债券公司和银行都设有“风险管理部”,斯科尔斯和默顿都是LTCM基金“风险管理委员会”的成员,对突发事件作出预警是他们的职责,但在这次他们竟都未能作出预警。 突发事件是“小概率”事件,基于传统的平稳随机过程的预测理论完全不适用。这只要看一个简单的例子就可以明白。在高速公路公路上驾驶汽车,想对突然发生的机械故障做出预警以防止车祸,传统的平稳随机过程统计可能给出的信息是:每一百万辆车在行驶过程中可能有三辆发生机械故障。这种统计规律虽然对保险公司制定保险率有用,但对预警根本无用。因为不知道你的车是否属于这百万分之三,就算知道是属于这百万分之三,你也不知道何时会发生故障。 笔者认为,针对金融突发事件的上述特点,作预警应采用“多因素前兆法”。前面说过,在“能量”积累型的突发事件发生之前,必定有一个事先“能量”积累的过程;对“放大”型的突发事件而言,事先必定存在某种放大机制。因此在金融突发事件爆发之前,总有蛛丝马迹的前兆。而且“能量”的积累越多,放大的倍数越高,前兆也就越明显。采用这种方法对汽车之机械故障作出预警,应实时监测其机械系统的运行状态,随时发现温度、噪音、振动,以及驾驶感觉等反常变化及时作出预警。当然,金融突发事件要比汽车机械故障复杂得多,影响的因素也多得多。为了作出预警,必须对多种因素进行实时监测,特别应当“能量”的积累是否已接近其“临界点”,是否已存在“一触即发”的放大机制等危险前兆。如能做到这些,金融突发事件的预警应该是可能的。 要实现预警,困难也很大。其一是计及多种因素的困难。计及的因素越多,模型就越复杂。而且由于非线性效应数学处理就更为困难。计及多种因素的突发事件之数学模型,很可能超越现有计算机的处理能力。但计算机的发展一日千里,今天不能的,明天就有可能。是否可以先简后繁、先易后难?不妨先计及最重要的一些因素,以后再根据计算机技术的进展逐步扩充。 其二是定量化的困难。有些因素,比如心理因素,应如何定量化,就很值得研究。心理是大脑中的活动,直接定量极为困难,但间接定量还是可能的。可以考虑采用“分类效用函数”来量化民众的投资心理因素。为此,可以将投资者划分为几种不同的类型,如散户和大户,年轻的和年老的,保守型和冒险型等等,以便分别处理。然后,选用他们的一种典型投资行为作为代表其投资心理的“效用函数“,加以量化。这种方法如果运用得当,是可以在一定程度上定量地表示投资者的心理因素的。此外,卢卡斯(R.E.Lucas)的“理性预期”也是一种处理心理因素的方法。 其三是报警灵敏度的困难。过分灵敏可能给出许多“狼来了”的虚警,欠灵敏则可能造成漏报。如何适当把握报警之“临界值”?是否可以采用预警分级制和概率表示? 有些人根本怀疑对金融突发事件做预警的可能性。对此不妨这样来讨论:你相信不相信金融事件具有因果性?如果答案是肯定的,那么金融突发事件就不会凭空发生,就应该有前兆可寻,预警的可能性应该是存在的,那么金融学就不是一门科学,预警当然也就谈不上了。笔者相信因果律是普遍存在的,金融领域也不例外。 因应之道 研究金融突发事件的目的在于因应,因应可分为事先与事后两种,这里主要讨论事先的,因为事先防范可以减少损失。事先的因应之道应根据突发事件的机制:对于“能量”积累型的,可采用“可控释放法”,即在控制下多次释放小“能量”以避免突然一次释放大“能量”。就近国务院下决心对某些存在严重问题的金融机构逐个进行整顿,就起到了可释放“能量”的作用,这对防止金融突发事件是有益的。对于“放大”型的,可采用加入阻尼法,在核裂变反应中,常采用插入能吸收中子的镉棒等办法以减缓核反应。在由电感和电容所构成的振荡电路中,加入电阻就可以对振荡产生阻尼作用。在放大或控制电路中引入“负反馈”,也可起到阻尼作用。类似办法可用于因应金融突发事件。例如:全球金融机构的计算机联网固然有利于国际贸易但也使金融投资者易于兴风作浪,他们可跨越国界几乎瞬时地调拨几十亿美元进行投机,造成像1997年东南亚那样的金融危机。最近美国有人提议:可以仿照对进出口货物征收关税那样,对这种跨国巨额资金调拨收税,这就是一种防止金融突发事件的阻尼作用。当然,阻尼不能过分否则就会阻碍资金正常流通,妨碍经济的发展。更好的办法是“选择性阻尼”,即只对那些应予抑制的加以阻尼。这在技术领域中是有先例的,在金融领域中是否可行?值得考虑。 研究突发事件对于数学金融而言,是一个新的领域。金融突发事件本身非常复杂,对之进行研究绝非易事。本文的目的是提出问题,引起大家的注意。同时也提出一些不成熟的意见,以起抛砖引玉,共同开展对这一重要课题的研究。还应该指出:这次LTCM基金事件引起的金融风暴表明,全世界的大金融机构的“风险管理部门”也未能对突发事件作出预警。可见面对这一难题大家都站在同一起跑线上,这可以是我国进一步发展数学金融学的契机。                 
trending
注册时间2003-11-03
楼主发表于:2004-05-05 04:30只看该作者
16楼
模擬、預測與真實 2002, 3, 24 吳文成 --------------------------------------------------------------------------------   電腦模擬讓科學家們眼界大開,是因為於它那強大的運算速度與幾何繪圖能力,讓我們一窺許多非線性系統的演化過程,非線性系統,這種牽涉到自我疊代效應的動力系統,支配著絕大多數的物理現象。但是前面幾個世紀裡,物理學家們總是對這類的系統敬而遠之,因為這類系統所牽涉到的動力學方程組不但很難以描述,而且還很難求解。天文學家可以很容易地運用牛頓定律來描述月球環繞地球的軌跡,並預測某年某月某日某一時刻月球相對於地球的位置,但是天文學家卻無法在紙上輕易求出月球繞地球,地球繞太陽等三個行星的運動軌跡,這便是幾個世紀以來科學家所頭痛的「三體問題」,這也是最典型的非線性系統。在一八六O年代仍舊沒有電腦的時候 , 法國的天文學家 Delaunay( Charles Eugene Delaunay,1816-1872)將受到地球與太陽重力影響之月球運動的求解過程,填滿了整整一本書,這個工作花了他二十年的時間,可是得到的只是一個近似解,直到一九七O年才有人利用符號代數程式檢查他的計算,結果電腦只花了二十個小時 ,不但求出更精確的近似解 ,而且還找出了 Delaunay 的三個計算錯誤 。從此電腦轉變了科學,也帶來了新的世界觀。   非線性數學求解技巧的日益精進,再加上電腦模擬的大量運用,混沌與複雜性科學的研究如雨後春筍那般大量湧現,開啟了科學新頁。具有處理大量數據、資料能力以及模擬真實世界的電腦,提供了另一個觀察自然的窗口。現在科學家已經能夠了解《理性之夢》的作者 Heinz Pagels 所說的 :「天文望遠鏡打開了宇宙之門,顯微鏡揭露了微世界的秘密,電腦則開啟了一扇窗口,讓人看到真實的大自然。利用電腦處理大腦容納不了的資訊,使得人類首度能夠模擬真實,創造並製作複雜系統的模型,如大分子、混沌系統、神經網路、人體與大腦、演化型態與族群增加等。」   看過了電腦在演算方面的威力有著這樣的期待並不稀奇,因為用電腦來跑一組簡單的非線性數學指令,結果會得到極其複雜的奇特圖像。例如,一九五O年代的 John von Neumann(1903-1957)發明的細胞自動機 , 在一九七O年代 John Conway( 1937- )創造的生命遊戲,它們展現了複雜的動態交互現象,表現出無限的多樣性,其中最讓人驚異的是有些細胞自動機可以產生存在於大自然的景象 ,例如貝殼上的圖案、雪花的結構、蜿蜒的河流等等。受到這些奇特電腦世界的影響,一大群科學家開始使用細胞自動機來建構各種物理與生物程序的模型,人工生命的研究於是在裡面孕育而出。另一項捕捉科學想像力的電腦成果是屬於非線性數學幾何的 Mandelbrot 集合,堪稱是碎形當中的碎形,碎形理論之父 Benoit Mandelbrot(1924- )指出,許多真實世界的現象,最明顯的如花朵、雪花、樹木 、海岸線與股市波動等,都具有碎形的特徵,電腦模擬的螢幕裡頭無疑展現了大自然中碎形的豐富美感。   專門研究非線性動力學系統的混沌理論幾乎是與電腦革命一起發跡的,混沌學家與複雜性科學家想要從大自然中那複雜而看似混亂的現象裡找到一絲規則。藉著電腦模擬的幫助,他們發現了非線性動力系統裡有奇異吸子的存在、倍週期分岔與突現現象。這些發現擴大了混沌與複雜性科學家們的視野,得以試圖描述非線性動力系統的演化模型,他們指出:這裡頭變化莫測的現象(即混沌)其實並不是雜亂無序,而是內含著一種另類的規則,只是這種規則並不像牛頓力學一般靜態、絕對而自明,相反的,這種規則的本質是不定週期的來回震盪,其型態是自我相仿卻不曾自我重複的,換句話說,混沌不同於混亂,混沌有類似的樣子 ,可是每一個都不一樣。在科學家們探索混沌現象的過程中,混沌理論本身也帶來了新的科學認識論觀點。   麻省理工學院的氣象學家 Edward Lorenz(1917- )是混沌理論的先鋒, 一九六三年在《大氣科學雜誌》,他以「確定性的非週期流」為題發表了自己的研究成果,指出:確定型的非線性方程式存在著內在隨機性,即必然性中潛藏著偶然性,雖然這些偶然性仍然在一定的變化範圍內,可是其本質還是隨機的。在另一方面,混沌理論同時告訴我們:許多現象都是非線性的,任意微小的改變,可能帶來巨大而無法預見的後果,因此根本不能預測,這就是所謂的「對初始條件的敏感依賴性」。Lorenz 稱這種現象為蝴蝶效應,意指愛荷華州的一隻蝴蝶煽動翅膀,可能引起印尼風雨季節的狂風暴雨,由於我們對於天氣系統的知識不可能精確,因此預測天氣變化的能力極為有限。   混沌理論基本上是質疑化約主義的,因為化約主義只是為了理想化模擬的方便,而刻意忽略掉一些看似無緊要的影響因素,可是這些所謂無關緊要的因素,卻可能在非線性系統無數自我疊代的放大效應過後,而全然影響系統本身,換句話說,理想化模擬最後付出的代價,只是與實際的研究對象越離越遠,就算是針對確定型的非線性方程式進行模擬,科學家們也無法告訴你長期疊代過後的某個時刻方程式的軌道會落在哪裡。其中諷刺的是,大量運用電腦模擬的混沌與複雜性科學家,卻是「新化約主義」的執行者,他們同樣必須省略許多無關緊要的影響因素,才能放在電腦上模擬,只是不同的是以前的科學家是要紙上進行條件化約的運算,而混沌與複雜性科學家是在電腦上進行條件化約的運算。我們有時發現,混沌與複雜性科學家們一方面在手裡搖著反對化約主義的旗幟,另一方面在電腦裡進行條件化約的模擬,逐漸陶醉在炫麗的電腦螢幕面前,對於模擬結果興奮莫名,甚至是深信不疑。
trending
注册时间2003-11-03
楼主发表于:2004-05-05 04:32只看该作者
13楼
有位混沌社會學家利用電腦螢幕上亂竄的藍色點與紅色點,來模擬人搜尋食物、尋找同伴、競爭合作的過程,他承認他的模型不能預測,自稱這只是一種模擬社會演化觀念的嘗試,不過他卻在公開場合宣稱,他的模擬將帶來社會科學的革命,協助解決最棘手的問題。發明了遺傳演算法,同時也是人工生命的開山祖師 John Holland(1929-)於一九九三年的演講中宣稱:「許多我們長期頭痛的問題是,如貿易赤字、資源承載限度、愛滋病、基因缺陷、精神病、電腦病毒等。都處於某種極端複雜系統的中心,包含這些問題的系統,從經濟、生態、免疫系統、胚胎、神經系統到電腦網路,顯得非常分歧。不過,儘管外表不同,這些系統都具有某種重要性質……我們相信有某些共通原則支配系統行為,而且指引解決問題的方法。我們的研究目標,就在把直覺變成事實。」 同時, Holland 堅持 ,在電腦上模擬出來的生命不是像生命或隱喻生命,而是活生生的生命,雖然人工生命的活動範圍只能在電腦上,但是它能夠教我們認識生物,比研究大自然的生物獲益更多,例如人工生命或能揭露歷史中哪些必然發生,哪些又是出自於偶然。可是在私底下他卻承認,電腦模擬是不是真的活著,是個哲學問題,說研究人工生命的科學家可能必須妥協,不能像舊有的化約主義者那樣期望「完全了解 」事情。有時,混沌與複雜性科學家可以很生動地描述科學的限制,蝴蝶效應就是一例,但是有時他們又暗示可以超越限制,更誇張點的,甚至會宣稱:電腦模擬可以告訴我們的與真實告訴我們的一樣多,並且過度渲染電腦模擬的預測能力 。   是否他們把數位世界與現實混為一談?這些電腦模擬真的能夠揭露大自然的真實面貌嗎?這些數學模型能夠對文化現象提出有意義的說明嗎?   一九九四年二月在《科學月刊》發表《證實、證明、確證地球科學的數值模型》一文的幾位科學家表示,討論地球災難、石油乾凅、核廢料存在時間等問題時,雖然電腦數值模型日益具有影響力,可是「電腦數值模型解釋自然系統的有效性,仍然無法得到驗證」,自然系統無限開展,我們對於自然的了解永遠不夠完備,而且永遠不能確定是否忽略了相關因素。他們還解釋,由於無法完全掌握自然現象,我們所謂的數據充滿推理,只是自然現象的代號,我們的電腦模型一直是理想的產物,只能看成是大自然的近似,或是猜測。   混沌理論與複雜性科學,是近三十年才興起的科學革命,它與相對論與量子力學同被列為二十世紀的最偉大發現。量子力學闡述了微觀世界的測不準原理,而混沌理論則緊接著質疑,人們掌握與長期預測巨觀世界非線性動力系統之演化過程的能力,它告訴我們,這個世界絕大多數存在著如天氣變化等複雜的非線性系統,總是充滿著超乎人們認知能力以外的影響因素,就算人們真的完全找到所有的影響要素,在非線性因素的自我疊代效應之下,我們仍然無法預測天氣型態的最終變化。我們可以從其中看出,當代的混沌理論與複雜性科學提出了兩層否 定:一是否定了人們完全認知自然體系中非線性動力系統的構成與其變因的能力 ,二是即使人們寫出了正確的非線性系統之動力方程式,混沌理論仍舊否定了人們對於這個確定型非線性動力系統的長期預測能力,簡言之,不管科學家們對於個別非線性動力系統的內涵是掌握(確定型)的,或是非掌握的(非確定型),完全的預測皆是不可能。   電腦模擬雖然是科學家愛不釋手的一大利器,但是不可避免的,它仍舊是自然系統的精簡版與化約版,混沌與複雜性科學家們不能夠一方面反對化約主義,而在另一方面又宣稱電腦模擬可以告訴我們的與自然告訴我們的一樣多。過度地抬高電腦模擬的位階,並且混淆模擬、預測與真實這三者的界線,只會讓科學家們成為自大的「新化約主義者」。科學家們雖然延伸了知識的範圍,可是同時卻也勾劃出知識的界線,而我們更應該尊重後者。   一九九三年,美國的伊利諾大學發出一則消息,宣稱他們的電腦模擬找出了解決波士尼亞衝突的方案。面對這樣的消息,倘若我們明白電腦模擬的限制,自然就不會把它與真實混淆在一起,也不會過度誇大它的參考性。
trending
注册时间2003-11-03
楼主发表于:2004-05-05 05:46只看该作者
3楼
论复杂性与随机性的关系 吴彤 【作者简介】吴彤(1954- )男,教授,主要研究方向:系统科学哲学,复杂性的哲学和方法论研究,科学技术与社会。清华大学科学技术与社会研究中心,北京 100084 【内容提要】本文通过对历史上复杂性与随机性关系的认识回顾,展示和分析了起源于计算机科学领域的Kolmogorov复杂性与随机性的直接关联,分析了盖尔曼的有效复杂性概念,论证了两种复杂性与随机性的关系,以及随机性的不同情况,力图剥离混合在复杂性与随机性相互关系上的一些误读和误解,还复杂性与随机性一种客观的本真关系。 【关键词】复杂性/计算复杂性/算法复杂性/随机性/有效复杂性Ⅰ/有效复杂性Ⅱ 【正文】 〔中图分类号〕B085 〔文献标识码〕A 〔文章编号〕1000-0763(2002)02-0018-06 最近,我们在研究复杂性问题的过程中,发现复杂性与随机性的关系具有特别的意义,许多国内外的学者在复杂性与随机性的关系认识上,常常以随机性代替复杂性,认为随机性就是复杂性的内容之一。本文力图剥离混合在复杂性与随机性相互关系上的一些误读和误解,还复杂性与随机性一种客观的本真关系。   一、历史上复杂性与随机性的认识回顾 科学上经典的复杂性的概念,最早起源于计算机科学研究领域,当然它主要参考了物理学当时的基本观念。   (一)建基随机性上的两种复杂性概念 为了探索复杂性与随机性的关系,我们先了解计算复杂性、算法复杂性的概念。 首先让我们从信息理论的角度来看待问题。信息的简单还是复杂涉及的是表达信息的序列串如何。简单的非复杂系统的产生指令很简短,通常也很明显:例如,所有项相加即为和。这样复杂性可以操作性地定义为:寻找最小的程序或指令集来描述给定“结构”——一个数字序列。这个微型程序的大小相关于序列的大小就是其复杂性的测量。 序列111111…是均匀的(不复杂的)。对应的程序如下;在每一个1后续写1。这个短程序使得这个序列得以延续,不管要多长都可以办到。 序列110110110110…的复杂性高一些,但仍然很容易写出程序:在两个1后续写0并重复。甚至序列110110100110110100…也可以用很短的程序来描述;在两个1后续写0并重复;每三次重复将第二个1代之以0。这样的序列具有可定义的结构,有对应的程序来传达信息。比较这三个一个比一个复杂些的序列。再看下面的序列11010010110111010010…,它不再是一个可识别的结构,若想编程必须将它全部列出。但是如果它是完全随机性的,那么,我们根据概率规则,可以知道最终在这个数串中0和1的出现几乎是等概率的。 于是为了解决这些关于如何认识复杂性增长和判别复杂性程序的问题,科学家们定义了多种描述性的复杂性概念。 计算复杂性(computational complexity)源于20世纪30年代数学逻辑发展过程中提出的一些深刻命题。它们都有自己特定的问题规模N,计算复杂性就是指解决问题随问题规模N增长而需要的代价增长。这种简单性和复杂性的分野是,如果计算时间(或空间)的增长不超过N的某个幂次或多项式,那么该问题是简单的,称为P类问题。如果增长速率超过N的任何多项式,则问题是困难的,称为NP类(NP即“非确定多项式”Non-deterministic Polynomial的缩写)问题,即复杂性问题之一。如推销商的路线选择问题(Travelling Selesman Problem,简称TSP)就属于问题中的“完全NP”一类问题。此类问题的特点是,随着问题涉及面增加,其计算量将指数性或失控式地增长。 对计算复杂性的常见度量是时间和空间。一般地说,所谓时间就是一个计算中离散步骤的数目;空间就是指计算指令读取独特的存储地址的数目。[1]如前所述,时间上的计算复杂性即一个计算机描述一个系统(或解一个问题)所需要的时间;空间上的计算复杂性即描述一个系统所需要的计算机存储量。 算法复杂性(algorithmic complexity),主要是由A.N.Kolmogorov,[2]G.J.Chaitin[3]和R.J.Solomonoff[4]在20世纪60年代中期分别独立提出的概念,又称为Kolmogorov复杂性。基本思想和定义如下: 对每一个D域中的对象x,我们称最小程序p的长度丨p丨就是运用指定方法S产生的关于对象x的复杂性。对计算机S而言,设给定的符号串为x,将产生x的程序记为p。对一个计算机来说,x是输入,p是输出。粗略的说,关于一个符号串x的Kolmogorov复杂性,就是产生x的最短程序p的长度。上述定义可写为:[5] K[,s](x)=min{丨P丨(p)=n(x)} K[,s](x)=∞ 如果不存在p. 其中K[,s](x)即Kolmogorov复杂性。后一个公式的含义是明显的,即如果传送的符号串完全杂乱无章,找不到任何规律(即程序p),那么,复杂性就等于符号串本身,而符合串是无规无穷数,复杂性即无穷。因此在算法复杂性中,实际上是越随机性(random)的东西,越不可认识,其结果是它越复杂。换句话说,复杂的随机性对象有最大的复杂性,因为不可能压缩对其对象的描述。[6]   (二)Kolmogorov复杂性的影响和有效复杂性的提出 Kolmogorov复杂性定义实际上支配了后来计算机科学上对复杂性的几乎所有的研究,以后又波及到几乎所有科学领域。例如,F.Cramer就是按照这种思路把复杂性程度分为三个等级:亚复杂性、临界复杂性和根本复杂性。所谓亚临界复杂性是指系统表面复杂但其实很简单,或许是算术性的。简单的物理定律,如牛顿定律可以用于得到的决定性系统;所谓临界复杂性是指在复杂性的特定阶段——在它的临界值上——开始出现某些结构。最简单的情况是对流和对流图案形式。这个复杂度称为临界复杂性。这些系统构成一些亚系统,例如进化系统或不可逆热力学系统;所谓根本复杂性是指“只要系统有着不确定性解或混沌解它就是根本复杂的”,[7]“一旦程序的大小变得与试图描述的系统可以相提并论,不能再对系统进行编程。当结构不可辨识时——即当描述它的最小算法具有的信息比特数可与系统本身进行比较时——我称之为根本复杂性。根本复杂性的这个定义是以A.N.Kolomogorov(1965)的方程为基础的。”([7],p.211) 按照F.Cramer的认识,根本复杂性相当于无法认识。根本复杂性即那些表现得完全随机性(random或stochastic)、描述结果与被描述对象可以相提并论,完全无法获得规律性认识,简单地说,无法辨识即根本复杂性。
个性签名

止损有没有?有!&lt;br&gt;目标有没有?没有!!

trending
注册时间2003-11-03
楼主发表于:2004-05-05 05:47只看该作者
4楼
所以,根本复杂性=完全随机性。 F.Cramer还按照复杂性程序的不同,比较了数学、一般科学理论、物理学、生物学、进化过程、科学之外系统(包括科学作为一个整体系统、哲学、美学、语言、宗教和历史)等6类知识体系的描述复杂性情况,按照他的分类,我们看到几乎每一个认识体系都有自己的三类复杂性(第一类实际上是简单性)情况。 当然,这种通过图灵机方式,用算法耗用资源的方法表示计算复杂性程序,给研究的难度做了一个很好的客观的划界。但是,如果一个对象根本无法简约对对象的描述,其描述长度与构成对象的组分“程序”完全一样,甚至完全不存在一个最短描述程序P,算法复杂性给出的复杂性定义与我们在物理学等科学上对随机性的复杂性认识就有所背离。 例如,完全随机性的全同粒子组成的气体系统,它的内部状态是无法给出程序描述的随机状态,但是它的结果却是非常简单的、确定的,不具有复杂性特征。 因此,反对复杂性等于随机性的观点也是应该考虑的。其典型的代表是盖尔曼,他提出“有效复杂性”概念。所谓“有效复杂性,大致可以用对该系统或数串的规律性的简要描述长度来表示”。([8],p.49)他认为算法复杂性不能用来定义复杂性,其原因在于算法复杂性具有不可计算性和随机性。他的根本观点是随机性不是复杂性,即有效复杂性这一概念的作用,尤其当它不是内部有效复杂性时,与进行观察的复杂适应系统能否很好地识辨与压缩规律并抛弃偶然性的东西有关。 盖尔曼认为,假定所描述的系统根本没有规律性,一个正常运作的复杂适应系统也就不能发现什么图式,因为图式是对规律性的概述,而这里没有任何规律可言。换句话说,它的图式的长度是零,复杂适应系统将认为它所研究的系统是一堆乱七八糟的废物,其有效复杂性为零。这是完全正确的;胡言乱语的语法图式其长度应该是零。虽然在具有给定长度的比特串中,随机比特串的AICI[算法信息量]最大,但是其有效复杂性却为零。([8],p.58) AIC标度的另一个极端情形是,当它几乎等于零时,比特串完全规则,比如全由1组成。有效复杂性一用于描述这样一个比特串的规律性的图式的长度——应该非常接近于零,因为“全部为1”的消息是如此之短。 因此,盖尔曼提出,要想具有很大的有效复杂性,AIC既不能太高,也不能太低。换句话说,系统既不能太有序,也不能太无序。有效复杂性是非随机性的,但是有效复杂性又不等于有序中的简单性,即完全规则的那种情况。这里的有效复杂性应该指可理解性意义上的描述长度较长的类。因为可理解性意义的描述长度很短,就相当于简单性了。而完全不可理解,意味着完全随机性。描述长度与事物本身相等,相当于对事物没有认识。有效复杂性一定介于这两者之间。有效复杂性如何才是可以度量的呢?无法准确或定量的度量,是有效复杂性的缺陷之一。当然,有效复杂性一方面是对客观复杂性的有效理解与最小表达,一方面也应该是一个随人类主体认识能力进化而变化的变量。   二、对随机性的理解 这里需要对随机性概念进行辨析。研究表明,我们通常在三种“随机性”上使用随机性概念:第一,指该事物或事物之状态非常不规则,找不到任何规律来压缩对它的描述;第二,指产生该事物的过程是纯粹偶然的或随机的过程。而该过程所产生的结果,主要是随机的,其信息不可压缩;有时则可能得出包含一定的规律性,其信息可有一定程序的压缩性;极少情况下能够得出非常规则的结果,其信息具有很大压缩性。第三,指伪随机性过程产生的貌似随机性结果,即事实上该过程是非偶然的决定论过程的,但是其结果却非常紊乱(如混沌)。为避免混淆,盖尔曼建议在英文中用"stochastic"表示随机的过程,用"random"表示随机性的结果。本文所指的随机性是结果的随机性,即"random"。我们现在能够认识的随机性中的规律性的东西,是第二种类和第三种类的一部分性质。即对它们的描述有可以压缩其信息的情况。 这样,所谓随机性即有两种,一种即过程随机性,一种结果或状态随机性。而真正意义的随机性是不仅其产生的结果具有随机性的特征,而且产生的过程也是随机性的过程。混沌只具有结果形态上的貌似随机性,而不具有过程的随机性。   三、两类复杂性与随机性关系 由以上关于复杂性的各种描述性定义的探讨,我们可以看出,这里实际上存在着两种关于复杂性完全不同的观点。 观点一,认为“复杂性”相当于随机性。随机性大小是度量认识复杂性的尺度。随机性越多,复杂性越大,完全随机性的信息,则相当于最大复杂性,或根本复杂性。 可以比较一下关于熵的定义,系统内部混乱程度最大,系统熵最大。所以,最大复杂性就相当于最大信息熵。计算复杂性、算法复杂性中相当大的成分包含着这种涵义。像熵,Kolmogorov复杂性,以及F.Cramer定义的根本复杂性都属于此类复杂性。我认为,此类复杂性的意义对对象本身的复杂性认识没有意义,但是对认识条件下的认识复杂性长度即认识难度却是有意义的,即这种复杂性不是关于认识对象的,而是关于认识能力(如计算机解题所需资源)的。Kolmogorov给出了一个对如何度量计算难度有效的“复杂性”概念,但是却使得人们在认识客观对象的复杂性上陷入误区。 观点二,认为“复杂性”不等于随机性,而是胜于随机性的、人们对事物的复杂性的有效认识。 这两类复杂性哪个更科学和准确呢?我们需要仔细研究一下不同情况。我们要证明复杂性不等于随机性,但是复杂性又离不开结果表现为“随机性”的状态。 第一种情况,我通过“同无素的大量粒子组成的体系”的结果简单性表明,随机性不复杂。如气体体系,到达平衡态时,体系熵达到最大。但它复杂呢?不,原因在哪里?实际上,在体系未达到平衡态时,体系内部的分子的微观态存在大量的区别,如速率分布不遵循麦克斯韦分布,这时体系就其微观态的个数多少而言,其微观态个数多,体系是复杂的;但是到了平衡态时,按照麦克斯韦速率分布,绝大多数分子的速率趋于一致,体系的不同的微观态不是增加,而是减少了。故体系进入平衡与均匀,熵趋向最大。到达熵最大时,理想条件下体系的微观态变成全同态,完全一致,没有不同的微观态了。体系因而变得简单了。此时物理学对它可以运用气体定律(实际气体用范德瓦斯气体方程)描述。从信息的程序角度看,描述语句可以写成:
个性签名

止损有没有?有!&lt;br&gt;目标有没有?没有!!

trending
注册时间2003-11-03
楼主发表于:2004-05-05 05:48只看该作者
12楼
f(P,V,T)=C 换句话说,虽然体系内部此时微观态最随机,但是微观态为全同志,无区别、无演化(体系状态不随时间变化而变化),因此,描述可以极为简单,数据信息可以压缩,即存在着对这种针对全同微观态的统计意义下的简单规律描述。可见,完全随机性的东西不一定复杂,或完全随机性的东西有最简单的情况。因此,把随机性等同于复杂性至少存在反例。 第二种情况,我通过“混沌”的复杂性表明它不是随机性的复杂性。混沌是一种貌似随机的复杂性状态。说它貌似随机,即指它的产生不是随机性(stochastic)所为,而是确定性体系所为。但是它的微观态具有“随机性”(random),即混沌局域内没有两个相同的状态,这种混沌与平衡态的无序完全不同。此时,体系内部的微观态个数随演化时间长度增加而增加,区别越来越大,越来越多,混沌的程序也随演化时间增加,这样对混沌的全部微观态描述就是不可能的了。然而,属于复杂性态的混沌态却不能作为复杂性等于随机性的证明,因为混沌不是随机性,而是貌似随机性的东西。对此,混沌现象和规律的发现者、美国气象学家洛伦兹作了这样的说明:“我用混沌这个术语来泛指这样的过程——它们看起来是随机发生的,而实际上其行为却由精确的法则决定。”[9]这表明混沌行为的重要属性是确定性,而不是随机性,即对处于混沌行为状态的系统来说,“现有状态完全或几乎完全决定未来,但却不是看上去如此”。那么,确定性的混沌行为为什么会看上去像是随机的呢?他认为,这是因为“在某些动力系统中,两个几乎一致的状态经过充分长时间后变得毫不一致,恰如从长序列中随机选取的两个状态那样。”([9],p.6) 第一种情况和第二种情况还有一个差别,那就是,产生第一种情况的办法是随机性(stochastic)的,因此对其产生过程我们是无法描述的;但是对结果或体系最终结果或体系整个状态我们能够用简单方法(统计方法)加以描述。而产生第二种情况的方法是确定性的,是有其简单性(动力学)方法的,对其产生过程或演化过程的一部分(在有限时间内)我们可以描述,但是对结果或体系最终结果或体系整个状态我们无法加以描述。换句话说,我们无法产生第一种情况,但是能够描述它;我们能够产生第二种情况,但是无法描述它。 这种情况使我想起突变论创始人托姆对“理解”和“行动”的精辟见解。按照托姆的观点,整个科学活动可比作一个连续进行过程,这一过程具有两极。一极代表纯粹知识:其基本目标是理解现实。另一个极涉及行动:其目标是对现实采取有效行动。传统的、目光短浅的认识论不赞成这种两极说,因为要采取有效的行动,总必须先“理解”。相应于这两种对科学所持的相反观点,存在两种不同的方法论。“行动”说在本质上是解决局部的问题,而“理解”说却试图要找到通用解(也即整体解)。明显的矛盾是,求解局部问题需要使用非局部手段,而可理解性则要求将整体现象化为几种典型的局部情况。[10]上述对无序和混沌的复杂性情况的分析告诉我们,这种传统认识论的观点可能是错误的。因为有这样的情况,我们对它已理解透彻,却无力对它采取任何行动。反过来,有时我们对现实世界能采取有效行动,但对其所以有效的原因却茫然无知。几乎可以毫不夸张地说,无序的简单性和混沌的复杂性为这种情况提供了佐证。我们能够产生和控制混沌,但是对混沌复杂性的认识还没有完全转化为盖尔曼意义上的有效复杂性。关于混沌类型的复杂性,我们目前就知之甚少,我们只了解混沌具有对初值的极端敏感性,具有某种类型的吸引子(局域性),混沌具有微观结构。我们计算的越细致,混沌也越反映出层次间的自相似性和嵌套性,它也就越复杂。 我们研究一个问题,一般先要界定清楚问题和环境。如果不能清楚地界定问题,你能拿它怎么办呢?然而,许多复杂性问题都是其内容尚未界定清楚的、并且在不断生成的问题,其环境因时间的推移而不断变化。适应性作用只是对外界对它的回报做出反应,而用不着考虑清楚行动的意义和对行动背后的理解。 复杂性问题的复杂正在于此。作用者面对的是界定不清的问题、界定不清的环境和完全不知走向的变化。只要略想片刻就会认识到,这就是生命的全部含义。人们经常在含糊不清的情况下做出决定,甚至自己对此都不明白。我们是在摸着石头过河,在过河中我们不断改变自己的思想,不断拷贝别人的经验,不断尝试以往成功的经验。 以气象学为例。天气从来不会是一成不变的,从不会有一模一样的天气。我们对一周以上的气候基本上是无法事先预测的,有时1~2天的预报都会产生错误。但我们却能够了解和解释各种天气现象,能够辨认出像锋面、气流、高压圈等重要的气象特征。一句话,尽管我们无法对气象做出完全的预测,但气象学却仍不失为真正的科学。[11] 以上研究表明,第一种类型即所谓随机性的复杂性不是我们要的复杂性,它相当于F.Cramer意义的亚临界复杂性(类似简单性),如果把复杂性与这种随机性联系起来,那么说复杂性等于随机性(stochastic),则是不对的;但是如果是第二种意义的复杂性则与貌似随机性的随机性(random)结果相互关联在一起。那么的确存在随机性越大,似乎越复杂的情况。但是这里需要注意的是,信息熵在这里决不是热力学熵,另外,产生这种复杂性的原因也不是随机性。 所以在说复杂性与随机性的关系时,我们一定要辨别所说的随机性是什么随机性,是stochastic呢,还是random。我们是否可以这样说,复杂性是具有random性态的东西,而不是由stochastic产生的。   四、复杂性与状态随机性及其他 在随机性(random)基础上建立起来的复杂性,还应该继续加以分析。我们先暂时去掉第二种随机性(stochastic),于是这里还存在两种random意义下的随机性。第一种是非常不规则结果,从而找不到任何规律来压缩对它的描述的随机性,另一种是貌似随机性的结果,即由非偶然的决定论过程所产生的,但是其结果却非常紊乱(如混沌)的随机性。在第一种随机性情况下,无法得到对事物的认识,描述长度将同事物本身一样。该事物我们认为复杂吗,如果不复杂为什么我们无法认识?如果承认它不复杂,那么就需要承认除了复杂性成为我们认识的障碍以外,我们认识的障碍还有其他。有其他障碍吗?如果承认其复杂,我们就需要承认世界上存在完全无规则的东西,它无法认识。而这点与我们关于世界是有规律的假定是矛盾的,似乎进入了不可知论。看起来,我们只能等待认识进步来解决该问题。 因此,我建议,在假定这个世界不断演化的前提下,把对应于第一类随机性(非常不规则,而无法压缩信息串)的复杂性称为“潜在复杂性”(potential complexity),而把对应于第二类随机性(貌似随机性的结果,非常紊乱)的复杂性称为“有效复杂性Ⅱ”,以区别盖尔曼的“有效复杂性”。因为盖尔曼把对应于第一种随机性中可认识的复杂性称为“有效复杂性”(我们把它称为复杂性Ⅰ),有效复杂性不等于我们对该对象的认识达到了所有细节全部认识完毕,无一遗漏。而是指这种复杂性抓住了该对象的基本方面和特性,使得该对象成为科学研究的实在对象。 这样在随机性(random)背景下的复杂性可以分类为如下: 附图   五、余论:一些未解问题 随着对复杂性与随机性关系的讨论深入,我们自然会问:对随机性本身而言,它对认识客观复杂性就没有意义吗?现在最大的问题是,当我们面对一系列“貌似”随机性的东西,我们并不清楚它在演化过程中未来会如何?第一,在更广阔的场景中和更长的时间序列中它是真随机性,还是伪随机性?第二,对一个有限的时间和实践而言,现在它显现为随机性,并不能保证它以后的演化也是随机性的。所以,我们即便认为真随机性中不包含复杂性,我们在有限的时间内也不可能判定事物的后演化过程一定是非随机性的,或随机性的,从而也就无法判断其中是否有意义,即包含有效的复杂性。 另外,如果随机性中不包含有效的意义,我们如何说它复杂呢?这里马上就有一个例子:猴子在计算机键盘上随机地敲出的100万个符号组成的“文本”与莎士比亚的《哈姆雷特》哪个更复杂呢?按照根本复杂性=最大随机性的观点,那一定是前者复杂于后者;而按照有效复杂性的观点则后者复杂于前者。在与随机性意义的关系上看,如果承认随着思想中包含第一类随机性(stochastic)越大,思想就越复杂的话,我们就得承认疯子的胡乱思想最复杂,因为无法对他的思想加以认识和把握(编程,也许在疯子的思想世界里,被认为可以把握,但是这两个世界即理性世界与非理性世界无法通约,除非一个理性人疯后又恢复为理性人并且没有遗忘疯子的经历和思想),我们也要承认谁的语言最晦涩难懂,谁的理论最复杂。如果认为非随机性的表达有效复杂性的思想才复杂,我们则可利用有效复杂性这个尺度上去度量历史上思想家的理论的复杂性程度。事实上,我们对思想家的思想复杂程度常以其思想深刻、细致和广度,以及是否逻辑自洽和论证充分判定的。我想,比较两个思想的复杂性程度时,可以通过是否对相同思想和思想对象的解读更深入、更细致和更广泛,以及思想体系的层次逻辑四个尺度加以把握,这四个尺度实际是:信息深度、结构层次、细致性、广度(包括问题范围性)。 可见,还是有效复杂性的实际意义更好些。但是一个没有随机性的世界,只有貌似随机性的世界虽然充满了不确定性,但是这却不解渴,我们那些突然的变化,我们那些临时的改变,那些偶然性的东西也是存在的,那么它们对复杂性就没有贡献了吗?如果存在这种贡献,又应该如何计量这种由偶然性或随机性产生的复杂性呢? 〔收稿日期〕2001年3月12日 【参考文献】 [1] Joel I.Seiferas,Machine-lndependent Complexity Theory,[J]Handbook of Theoretical Computer Science,Edited by J.van Leeu wen,Elsevier Science Publishers B.V.,1990,p.165. [2] A.N.Kolmogorov,three approaches to the definition of the concept'quantity of information',[J]Problem of Information Transmission,1(1965)1. [3] G.J.Chaitin On the length of progams for computing finite binary sequences,[J]J.ACM 13(1966)547. [4] R.J.Solomonoff,A formal theory of inductive inference,[J]Inform.and Control 7(1964)1,224. [5] Ming Li,P.M.B.Vitányi,Kolmogorov Complexity and it Applications,[J]Handbook of Theoretical Computer Science,Edited by J.van Leeuwen,Elsevier Science Publishers B.V.,1990,p.197. [6] R.Badii,A.Politi,Complexity:Hierarchical structures and scaling in physics,[M]Cambridge university Press,1997,p.7. [7] F.Cramer,Chaos and Order,The Complex Structure of Living Systems,[M],VCH,New York,1993,p.214.中译本已由柯志阳、吴彤译出,上海科技教育出版社2000年出版。 [8] Murray Gell-Mann,The Quark and the Jaguar,adventures inthe simple and the complex,W.H.Freeman & Co.,New York,1994,p.44;中译本:〔美〕盖尔曼·夸克和美洲豹——简单性和复杂性的奇遇.[M]长沙:湖南科学技术出版社,1998,第47页。 [9] 〔美〕E.N.洛伦兹著,刘式达等译,混沌的本质,[M]北京:气象出版社,1997.第3页。 [10] 〔法〕勒内·托姆.突变论:思想和应用,[M].上海:上海译文出版社,1989,第141页。 [11] 〔美〕M.沃尔德罗普:复杂(陈玲译),[M]北京:三联书店,1997,第356-357页。

本站免责声明:

1、本站所有广告及宣传信息均与韬客无关,如需投资请依法自行决定是否投资、斟酌资金安全及交易亏损风险;

2、韬客是独立的、仅为投资者提供交流的平台,网友发布信息不代表韬客的观点与意思表示,所有因网友发布的信息而造成的任何法律后果、风险与责任,均与韬客无关;

3、金融交易存在极高法律风险,未必适合所有投资者,请不要轻信任何高额投资收益的诱导而贸然投资;投资保证金交易导致的损失可能超过您投入的资金和预期。请您考虑自身的投资经验及风险承担能力,进行合法、理性投资;

4、所有投资者的交易帐户应仅限本人使用,不应交由第三方操作,对于任何接受第三方喊单、操盘、理财等操作的投资和交易,由此导致的任何风险、亏损及责任由投资者个人自行承担;

5、韬客不隶属于任何券商平台,亦不受任何第三方控制,韬客不邀约客户投资任何保证金交易,不接触亦不涉及投资者的任何资金及账户信息,不代理任何交易操盘行为,不向客户推荐任何券商平台,亦不存在其他任何推荐行为。投资者应自行选择券商平台,券商平台的任何行为均与韬客无关。投资者注册及使用韬客即表示其接受和认可上述声明,并自行承担法律风险。

版权所有:韬客外汇论坛 www.talkfx.com 联络我们:[email protected]