知名网站的技术发展历程以及实力怎么样

知名网站的技术发展历程
google目前alexa排名第1。它诞生于1997年,当时是一个研究性项目,每个月build一次索引,build出来的索引通过sharding(shard by doc)的方式分散到多台服务器(index server)上,具体的网页数据同样通过sharding的方式分散到多台服务器(doc server)上,当用户提交请求时,通过前端的一台服务器将请求提交给index server获得打了分的倒排索引,然后从doc server提取具体的网页信息(例如网页标题、搜索关键词匹配的片段信息等),最终展现给用户。
随着索引的北京网站制作增加,这个结构可通过增加index server以及doc server来存储索引以及网页的数据,但仍然会面临其他很多方面的问题,于是在这之后的十多年的时间里,google做了很多事情来改进上面的结构。
1999年,google增加了一个cache cluster,用来cache查询的索引结果和文档片段信息,同时将index server和doc server通过replicate的方式变成了cluster。这两个改造带来的好处是网站的响应速度、可支撑的访问量以及可用性(availability)得到了提升。这个变化造成了成本的增加,google在硬件方面的风格始终是不用昂贵的高端硬件,而是在软件层面来保证系统的可靠性及高性能,于是同年,google开始采用自行设计的服务器来降低成本。2000年,google开始自行设计datacenter,采用了各种方法(例如采用其他的制冷方法来替代空调)来优化pue(能源利用率),同时对自行设计的服务器也做了很多化。2001年,google对index的格式进行了修改,将所有的index放入内存, 这次改造带来的好处是网站的响应速度以及可支撑的访问量得到了极大的提升。2003年,google发表了文章google cluster architecture,其cluster结构组成为硬件lb+index cluster+doc cluster+大量廉价服务器(例如ide硬盘、性价比高的cpu等),通过并行处理+sharding来保证在降低对硬件要求的同时,响应速度仍然很快。同年google发表了关于google文件系统的论文(gfs在2000年就已经上线),这篇论文很大程度也体现了google不用昂贵硬件的风格,通过gfs+大量廉价的服务器即可存储大量的数据。2004年,google再次对index的格式进行了修改,使得网站的响应速度继续提升。同年google发表关于mapreduce的论文,通过mapreduce+大量廉价的服务器即可快速完成以前要使用昂贵小型机、中型机甚至是大型机才能完成的计算任务,而这显然对于google快速地构建索引提供了很大的帮助。2006年,google发表了关于bigtable的论文(2003年开始上线),使得海量数据的分析能够达到在线系统的要求了,这对于google提升网站的响应速度起到了很大的帮助。
以上3篇论文彻底改变了业界对于海量数据的存储、分析和检索的方法(小道消息:google内部已完成了gfs、mapreduce、bigtable的替换),也奠定了google在业界的技术领导地位。
在一些场景中,google也采用mysql来存储数据。同样,google对mysql也做了很多修改,它使用的mysql信息可以从https://code.google.com/p/google-mysql/了解。
2007年,google将build索引的时间缩短到分钟级,当新网页出现后,几分钟后即可在google搜索到,同时将index cluster通过protocol buffers对外提供service,以供google各种搜索(例如网页、图片、新闻、书籍等)使用,除了index cluster提供的service外,还有很多其他的service,例如广告、词法检查等。google的一次搜索大概需要调用内部50个以上的service,service主要用c++或java来编写。2009年,google的一篇《how google uses linux》文章,揭示了google在提升机器利用率方面也做了很多的努力,例如将不同资源消耗类型的应用部署在同一台机器上。
在之后,google又研发了colossus(下一代类gfs文件系统)、spanner(下一代类bigtable海量存储和计算架构)、实时搜索(基于colossus实现),主要都是为了提升搜索的实时性以及存储更多数据。除了在海量数据相关技术上的革新外,google也不断对业界的传统技术进行创新,例如提高tcp的初始拥塞窗口值、改进http的spdy协议、新的图片格式webp等。
在google的发展过程中,其技术的改造主要围绕在可伸缩性、性能、成本和可用性4个方面,google不采用昂贵硬件的风格以及领先其他网站的数据量决定了其技术改造基本都是对传统的软硬件技术的革新。
facebook目前alexa排名第2。它采用lamp构建,随着业务的发展,它也在技术上做了很多改造。
作为改造的第一步,facebook首先在lamp结构中增加了memcached,用来缓存各种数据,从而大幅度提升系统的响应时间以及可支撑的访问量,之后又增加了services层,将news feed、search等较通用的功能作为service提供给前端的php系统使用,前端的系统通过thrift访问这些service。facebook采用了多种语言来编写各种不同的service,主要是针对不同的场景选择合适的语言,例如c++、java、erlang。
大量使用memcached以及访问量的不断上涨,导致访问memcached的网络流量太大,交换机无法支撑,facebook通过改造采用udp的方式来访问memcached,以降低单连接上的网络流量。除此之外,还有其他一些改造,具体信息可以查看http://on.fb.me/8r0c。
php作为脚本语言,优势是开发简单、易上手,劣势是需要消耗较多的cpu和内存。当facebook的访问量增长到了一定规模后,这个劣势就比较突出了,于是从2007年起,facebook就尝试多种方法来解决这个问题,最后诞生于facebook hackathon的hiphop产品成功地脱颖而出。
hiphop可以自动将php转化为c++代码,facebook在使用hiphop后,同等配置的机器,可支撑的请求量是之前的6倍,cpu的使用率平均下降了50%,从而为facebook节省了大量主机。将来facebook还会对hiphop进行再次改进,通过hiphop将php编译为bytecode,放入hiphop vm中执行,再由hiphop vm来编译为机器代码,方式与jit类似。
2009年,facebook研发了bigpipe,借助此系统,facebook成功让网站的速度提升了两倍。随着facebook访问量的上涨,收集众多服务器上的执行日志也开始面临挑战,于是facebook研发了scribe来解决此问题。对于存储在mysql中的数据,facebook采用垂直拆分库和水平拆分表的方式来支撑不断增长的数据量。作为facebook技术体系中重要的一环,facebook也对mysql进行了很多优化和改进,例如online schema change等,更多信息可见http://www.facebook.com/mysqlatfacebook。
发展之初的facebook采用了高端的存储设备(例如netapp、akamai)来存图片,随着图片不断增加,成本也大幅提高,于是2009年facebook开发了haystack来存储图片。haystack可采用廉价的pc server进行存储,大幅度降低了成本。
facebook除了使用mysql存储数据外,近几年也开始摸索采用新的方式。在2008年facebook开发了cassandra,在message inbox search中作为新的存储方式。不过在2010年,facebook又放弃了cassandra,转为采用hbase作为其messages的存储,并在2011年将hbase应用在了facebook更多的项目上(例如puma、ods)。据说,现在facebook更是在尝试将其用户以及关系数据从mysql迁移到hbase。
从2009年开始,facebook尝试自行设计datacenter以及服务器,以降低其运行成本,并对外开放了其构建的pue仅1.07的datacenter的相关技术。facebook在技术方面的基本原则是:“在能用开源产品的情况下就用开源,根据情况对其进行优化并反馈给社区”。从facebook的技术发展历程上可以看到这个原则贯彻始终,facebook的技术改造也主要是围绕在可伸缩、性能、成本和可用性4个方面。
twitter目前alexa排名第8。在2006年诞生之时是采用ruby on rails+ mysql构建的,2007年增加了memcached作为cache层,以提升响应速度。基于ruby on rails让twitter享受到了快速的开发能力,但随着访问量的增长,其对cpu和内存的消耗也让twitter痛苦不堪,于是twitter做了不少改造
上一个:网络营销才是最大的金库!
下一个:CSS加载失败原因有哪些?
汉寿网站建设,汉寿做网站,汉寿网站设计