本文从大数据的发展现状分析入手,讨论了大数据对传统经济学的挑战,首次提出大数据经济学的概念。认为大数据经济学包括大数据计量经济学、大数据统计学和大数据领域经济学,并分析了大数据经济学与信息经济学、信息技术等相关学科的关系,最后对大数据经济学发展前景进行了展望,认为大数据经济学不仅将理论科学、实验科学、复杂现象模拟统一在一起,而且将自然科学和社会科学统一在一起,将理论研究与实践应用实时地统一在一起,大数据经济学具有“智能经济学”的特点。
1、引言
2012年,Twitter上每天发布超过4亿条微博,Facebook上每天更新的照片超过1000万张,Farecast公司用将近10万亿条价格记录来预测机票价格,准确率高达75%,采用该系统购票,平均每张机票可节省50美元。Gartner预测未来5年全球大数据将会增加8倍,其中80%结构化数据。2013年世界上存储的数据将达到1.2ZB(1ZB=1024EB,1EB=1024PB,1PB=1024TB,1TB=1024GB),如果将这些数据刻录到CDR只读光盘上,并堆起来,其高度将是地球到月球距离的5倍。2011年,麦肯锡公司对全世界大数据的分布作了一个研究和统计,中国2010年新增的数据量约为250PB,而欧洲约为2000PB,美国约为3500PB,大数据已经深深地了人类经济社会的许多角落。
著名未来学家阿尔文·托夫勒(1980)[1]很早就在其经典著作《第三次浪潮》中,将大数据热情地赞誉为“第三次浪潮的华彩乐章”,但是大数据成为高频词是最近一两年的事情。随着社交网络、物联网、云计算的兴起,数据规模越来越大,2011年5月,全球知名咨询公司麦肯锡(Mckinsey and Company)发布了《大数据:创新、竞争和生产力的下一个前沿领域》[2]报告,标志着“大数据”时代的到来,指出“数据已经渗透到每一个行业和业务职能领域,逐渐成为重要的生产因素;而人们对于海量数据的运用将预示着新一波生产率增长和消费者盈余浪潮的到来”。2012年世界经济论坛发布了《大数据、大影响》[3]的报告,从金融服务、健康、教育、农业、医疗等多个领域阐述了大数据给世界经济社会发展带来的机会。2012年3月,奥巴马发布《大数据研究和发展》[4],投资2.5亿美元,正式启动大数据发展计划,计划在科学研究、、生物医学等领域寻求突破。据Gartner公司2012年8月发布的技术发展生命周期[5]趋势图(图1),大数据不到两年时间内成为新技术发展的热点。一时间大数据蜂拥袭来,那么什么是大数据?大数据对传统经济学会带来哪些冲击?传统经济学应该如何面对大数据带来的挑战?
对于什么是大数据,目前业界并没有的说法。Dumbill(2012)[6]采用IBM公司的观点,认为大数据具有“3V”特点,即规模性(Volume)、多样性(Variety)、实时性(Velocity)。以 IDC 为代表的业界认为大数据具备“4V”特点,即在3V的基础上增加价值性(value)。NetApp公司[7]认为大数据应包括 A、B、C 三大要素,即分析(Analytic)、带宽(Bandwidth)和内容(Content)。所谓大分析(BigAnalytics),指通过对大数据进行实时分析后带来新的业务模式,帮助用户获得洞见,从而更好进行客户服务;高带宽(Big Bandwidth)指快速有效地消化和处理大数据;大内容(Big Content)一方面指大数据包括结构化、半结构化数据与非机构化数据,另一方面则是指对数据的存储扩展要求极高,能轻松实现数据的恢复、备份、复制与安全管理。Gartner认为,大数据需要新的处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
图1 Gartner新技术生命周期
大数据是工业传感器、互联网、移动数码等固定和移动设备产生的结构化数据、半结构化数据与非结构化数据的总和,大数据重在实时的处理与应用,以获得所需要的信息和知识,从而实现商业价值以及为公共管理服务,数据挖掘和人工智能等应用工具在大数据处理中发挥着重要作用,现代信息技术是大数据赖以存在和发展的重要支撑力量。
2、大数据给经济学带来的影响
Victor(2012)[8]在其最新著作《大数据时代——生活、工作与思维的大变革》中指出,大数据时代,思维方式要发生3个变革:第一,要分析与事物相关的所有数据,而不是依靠分析少量数据样本;要总体,不要样本。第二,要乐于接受数据的纷繁复杂,而不再追求精确性。第三,不再探求难以捉摸的关系,应该更加注重相关关系。杨华磊(2013)[9]分析了高频数据对传统经济学研究范式的冲击,出现了“非主流经济学就是致力研究异常现象的经济学”,当然高频数据与大数据不是一回事,两者之间存在交集。那么,大数据给经济学带来了哪些影响呢?
2.1大数据研究对象变成了总体
传统经济学研究中,由于搜集数据的条件所限,人们往往对数据进行抽样,用少量样本来进行研究,这一传统一直延续至今,并且成为经济学研究的主流做法,但是抽样的质量对研究结果影响很大,比如对统计部门公布的物价指数和基尼系数引发的怀疑。在大数据时代,很多场合下已经无需进行针对样本的研究,直接将总体作为研究对象,从而很大程度上改变了数据来源方式,对数据的处理也产生了深远的影响。
2.2大数据不需要基于假设检验的研究
传统的经济学研究,往往根据研究内容提出数个假设,然后再采用数学模型基于统计检验来验证假设。但在大数据时代,由于有足够的变量、足够的数据,可以采用人工智能来进行数据挖掘和知识发现,得到的结论是成百上千的,和传统经济学研究需要验证假设的数量永远不是一个数量级。在大数据时代,如果继续采用传统的假设检验方法进行研究,永远是不充分的、不完备的、无法满足需要的。大数据时代重在对数据处理的多样化结果进行分析,可以是基于经济学的,也可以是基于应用的,从而辅助人们决策。
此外,由于变量的完备性要求使得传统的基于假设验证的研究有时变得十分尴尬。比如,研究研发投入对企业绩效的影响,需要考虑的不仅仅是研发投入,还要考虑企业资本结构、竞争水平、人员素质、行业特点、管理能力等诸多因素,研究者重点关注的是研发投入的弹性系数,但却得到了其他所有数十个变量的弹性系数,从而使研究重心不容易掌握。
2.3大数据使得关系变得不太重要
传统经济学是一门解释科学,重在对经济现象的解释,了解他们的关系,但在大数据时代,这样做是远远不够的,大数据甚至可以发现事物发展潜在的规律,以供经济学家解释,具有一定的“智能性”,某种程度上超越了经济学研究的关系。
大数据并没有改变关系,但是使传统经济学的关系变得不太重要。比如经济学家在预测房价时,无非是根据住房价格变化的影响因素来进行分析,比如经济发展水平、人均收入、土地价格、宏观房产政策、地点等因素。但谷歌预测房价时,根据住房搜索查询量变化进行预测,结果比不动产经济学家的预测更为准确及时。IBM日本公司,通过检索关键词“新订单”、“雇员”、“生产”等来预测采购经理人指数,仅用6小时就得出结果,并且和专业的采购人指数分析师们计算的结果基本一致。大数据并没有改变关系,但使关系变得意义不大,很多时候关系成为“正确的废话”。
2.4传统的关系有时无法验证
弄清事物之间的内在联系和作用机制,一直是传统经济学研究的核心。但有时关系是没有办法验证的。比如新产品上市,人们往往倾向于购买新产品,这样对旧产品的需求会下降,那么旧产品价格应该立即回落,这是其一。从另外一个角度,如果大家都认识到这一点,就会贪便宜购买旧产品,短期内会造成旧产品供不应求,反而导致旧产品涨价。究竟是涨是跌,要看这两种因素谁弱谁强,采用传统经济学研究方法是难以验证这两种效应的,只能验证两种效应作用的综合结果。
实际情况是,在大数据时代,西雅图g公司分析了近400万商品的超过250亿条价格信息,发现新产品上市时,短期内旧产品价格是上涨的,过一段时间才逐步回落。采用大数据,既可以知道多少人购买旧产品,也能知道多少人购买新产品,以及旧产品价格变化的规律。在这种情况下,我们知道所有的关系,却难以检验,并且没有意义,知道结果更重要。
2.5传统经济学研究具有滞后性
传统经济学对于新生事物是不的,必须等事情发生并且成长到一定规模以后才能搜集到足够数据进行相关研究。在大数据时代,可以通过海量数据对经济行为进行分析,一旦有新情况、新动态立即予以关注,从而实现对新生事物的早期干预和分析,因此具有前瞻性。大数据本身就具有智能,可以辅助经济学发现知识。
2.6大数据对基于统计检验的计量经济学冲击很大
建立在回归和统计检验基础上的计量经济学以其严谨的逻辑成为经济学研究的重要方,迄今为止,诺贝尔经济学获得者有近半数是计量经济学家,但大数据了这一根基,比如采用普通回归研究自变量X于因变量Y的关系,对于X回归系数采用t检验,一般认为相伴概率小于0.05(特殊情况可以放大到0.1)就说明两变量相关。其实在这种情况下,犯两变量不相关错误的可能性是5%,以CNNIC发布的《第31次中国互联网络发展状况统计报告》[10]为例,2012年底我国网民数量达5.64亿人,假设我们研究网民平均受教育年限(X)与上网时长(Y)的关系,5%就是2820万人,此时我们还能这5%的错误吗?同样,如果t检验的相伴概率为0.95,那么很明显说明平均受教育年限与上网时长不相关,但同样会犯错误,即有5%的可能性平均受教育年限(X)与上网时长(Y)是相关的,会涉及2820万网民,这同样是不能忽视的。
2.7大数据对经济学建模提出挑战
传统的经济学研究,往往采用1个或少数几个数学模型来进行研究,但任何模型都各有长处,也各有其局限,没有包治百病万能的数学模型。比如动态面板容易使投入变量的弹性系数估计变小,空间面板容易出现空间矩阵设置方法不当导致结果偏误,面板变系数模型难以和空间面板结合使用,面板联立方程模型对方程形式的要求极高,面板向量自回归模型难以和空间面板融合等等。在研究同一问题时,可用模型其实较多,有没有最佳模型呢?这恐怕是个无解的问题。实际情况是,迄今为止传统经济学研究得出的结论,至多只能说明采用甲模型的结论,并不具有普适性,换个乙模型结论可能立即就变了,其实研究结论是脆弱的。
此外,在研究同一个问题时,即使采用同一模型,由于模型的变量选择、估计的方法、参数设置、滞后期选择等不同,也会导致估计结果相差很大。
在大数据时代,借助云计算和分布式处理等现代信息技术,往往可以采用成百上千的模型来进行研究。Google公司在预测2009年美国甲型H1N1流感爆发时间时,把5000万条美国人常用的检索词条和美国疾控中心2003~2008年期间季节性流感数据进行比较,希望通过搜索记录判断这些人是否得了流感,先后共采用了4.5亿个不同的数学模型,预测结果和数据的一致率高达97%,但比节省了两周时间,从而为采取相关措施赢得了宝贵的时间。
在传统经济学研究中,由于研究对象错综复杂,直接影响与间接影响因素众多,变量的完备性被认为是不可能的事情,往往只能选取少数变量来进行研究,达到一个相对满意的结果。在大数据时代,我们可以获取越来越多的变量,从而使遗失变量的可能性降到最低,这样在研究中由原来的数个变量可能会变成数十个甚至成百上千的变量,在这样的情况下,对原有的建模技术就带来了巨大挑战,对计量经济学的发展将会产生深远影响。
2.8大数据给经济学研究工具和手段发生变化
传统经济学研究,一个团队,数台电脑,几个软件就能进行像样的研究,很少有运算需要大中型服务器的,但在大数据时代,经济学研究发生了巨大的变化,在人员组成上,不光要有经济学家和领域专家,还要有大数据专家、大数据建模专家;在计算工具上,需要广泛借助云计算,几台电脑根本解决不了问题;从合作关系上,需要广泛与、大数据拥有者、云计算服务商等合作,不然难以进行研究。大数据时代,经济学研究必须依靠跨学科团队,传统的少数几个学者就能进行研究的模式已经难以为继。
2.9大数据彻底改变了传统的统计调查方式
大数据彻底改变了传统的统计调查方式,比如对于经济指数、物价指数的计算,完全可以采用全新的模式,彻底摒弃传统方式。对于统计学中的异常点,以往的处理方式往往是丢弃,或者是平滑,在大数据时代,由于样本众多,异常点成为宝贵的资源和研究对象广受重视。传统的统计数据是经过加工后的结构化的数据,在大数据时代,人们更加重视原始数据和非结构化数据,因为如果统计数据已经经过加工,那就变成了二手数据,如果一手数据加工过程出现问题必然导致后续处理出现误差。此外,大数据还使间隔时间较短的高频数据研究成为可能。
3、