谷歌TPU正式开放: 一次对英伟达的降维攻击

2018.02.25 10:17

2月13日, 谷歌在其云平台博客上宣布了TPU服务开放的消息, 不但TPU芯片的商业模式正式浮出水面, 此前谷歌开源TensorFlow的真正商业目的也已经昭然若揭:

1、 开源AI算法框架实现用户与生态资源引流, 提供AI计算资源的云服务实现商业变现, 已经成为谷歌人工智能核心商业模式。 类比互联网时代的商业模式以免费的信息服务换取流量, 再通过广告变现; 谷歌通过免费开源TensorFlow算法框架为自己赢得了巨大的用户和生态伙伴, 而这些用户虽然可以免费试用开源的算法框架来训练和部署人工智能应用, 但离不开一个最重要的刚需: 对计算资源的巨大需求。 过去大部分用户都是购买GPU产品来满足算力要求, 这也是英伟达数据中心业务持续保持100%以上同比增长的原因, 但用户实际更需要的是算力服务而不是单价昂贵的GPU芯片产品, 所以谷歌并不对外出售TPU芯片, 而是通过云端提供TPU计算资源服务的方式来盈利, 这也是谷歌称为Cloud TPU的原因。

2、 为什么说Cloud TPU这种模式是对英伟达的降维攻击?

第一, 虽然TensorFlow也兼容支持GPU等计算硬件, 但TPU是专门为结合TensorFlow算法框架而定制设计的专用集成电路芯片( ASIC), 显然TPU能够最大化TensorFlow的性能。 谷歌核心人物Jeff Dean在推特指出Cloud TPU的性能优势, 一个Cloud TPU能在24小时内训练ResNet-50模型达到75%的精度, 并举例了两个拥有早期访问权限的用户的评价:

投资公司Two Sigma的CTO Alfred Spector说: “我们发现, 将TensorFlow工作负载转移到TPU上, 极大降低了编程新模型的复杂性, 并且缩短了训练时间。 ”

共享出行公司Lyft软件总监Anantha Kancherla说, “自从使用谷歌Cloud TPU, 我们被它的速度惊呆了。 以前需要花几天的事情, 现在几小时就能完成。 ”

此外TPU与TensorFlow资源的配合, 可以帮助用户快速入门Resnet, MobileNet, DenseNet和SqueezeNet( 物体分类) , RetinaNet( 对象检测)和Transformer( 语言建模和机器翻译) 等模型, 大大降低相关人工智能应用的门槛。

第二, 按照使用时间收费的云服务模式, 避免了购买GPU芯片动辄上万的高昂成本, 大大降低了AI计算的准入门槛, 使得长尾中小客户使用TPU云服务比购买英伟达GPU更为划算, 也符合谷歌AI民主化的战略定位。 Cloud TPU最初在美国相关区域提供, 价格是每小时6.5美元就可以获得180 tflops的计算能力。

3、 人工智能计算服务未来将是云计算重要的收入来源。 随着人工智能应用的加速渗透, 越来越多的厂商将会依赖云端提供深度学习的训练和推理的算力, 因而机器学习云服务已经成为亚马逊、 谷歌、 BAT等云计算巨头的标配, 但拥有底层核心计算芯片的谷歌, 其垂直一体化的优势、 开源TensorFlow积累的庞大用户生态都决定了谷歌成为这一领域的领跑者, 而其云业务份额也在最近超过了阿里云。

 

0 0 0

东方智慧,投资美学!

我要投稿

申明:本文为作者投稿或转载,在概念股网 http://www.gainiangu.com/ 上发表,为其独立观点。不代表本网立场,不代表本网赞同其观点,亦不对其真实性负责,投资决策请建立在独立思考之上。

相关概念股资讯

< more >

ABCDEFGHIJKLMNOPQRSTUVWXYZ0-9
暂无相关概念股
暂无相关概念股
go top