电脑版
首页

搜索 繁体

第12章 一篇论文一学期

热门小说推荐

最近更新小说

<!--go-->

公允地说,顾玩给麻依依安排的那些任务里面,“分布式编译架构”是最容易琢磨出来的一个突破点。

这玩意儿所需的知识结构,很契合计算机专业的资优生。

另一方面,地球人当年关注分布式编译,其实是跟摩尔定律瓶颈临近,有莫大的关系——地球上,那条“CPU单位面积算力每过18个月就能提升一倍”的摩尔定律,其实早在2005~2006年前后,就逐步陷入瓶颈了。

当时,05年暑期档英特尔发布的最新款CPU,单位算力就根本达不到04年初版本的翻倍了,大约只有04年春版本的1.6~1.7倍。

到06年底/07年初的英特尔单核CPU版本推出时,距离05年暑期档版本又过去大约18个月,但是这一次,单位算力只有05年暑期档版本的1.5倍。

可见,算力倍增的速度,在逐步放缓。当时CPU的加工工艺大概还在四十个纳米的水平,瓶颈就已经凸显了。这不是英特尔喜欢挤牙膏,而是真的挤不动更快了。

但地球上的普通消费者,在05/06年那阵子,并没有感受到电脑性能的提升速度明显放缓——这是因为,英特尔提前知道自己挤牙膏挤不动了,所以在那阵子推出了个叫“双核”的技术。

CPU单位算力提升速度不够,那就搞新的算力分布架构,用核心数量来凑。又过了两年,到08年前后,双核也撑不住了,就上四核。

至于后来的分布式编译架构/云计算,有个最大的外部诱因,就是“增加CPU核心”这条思路,也渐渐变得不划算了。

不可能无限堆砌32/128/512核,既然如此,不如直接搞分布式,把算力任务充分并行拆解的底层架构问题,给解决了。从此,咱也别纠结单台CPU的算力了,直接芯海战术堆规模。

Loading...

未加载完,尝试【刷新】or【退出阅读模式】or【关闭广告屏蔽】。

尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!

移动流量偶尔打不开,可以切换电信、联通、Wifi。

收藏网址:www.dd123.cc

(>人<;)