google大会(google开发者大会2020)

5个月前 (04-23)

google大会(google开发者大会2020)

机械心脏报告

作者:张骞

去年的Google I/O会议因为疫情取消了,今天我们看到了,这是Google两年的重要技术。他们也是AI领域最接近未来的人。

9月19日上午,该公司在网上举行了一场在线Google I/O大会,并在Google Park的开幕主题演讲中发布了一系列新产品。

“我们的目标是建立一个谷歌来帮助每个人,”凉鞋说。为更多人提供便利是今天谷歌活动的主题。

在记者发稿的几个小时内,你一定知道这个黑科技就是全息视频聊天技术项目Starline。疫情期间,很多人无法和自己的亲人、朋友、谷歌的“聊天室”通话让你和他们在天上打招呼,眼很有可能是互相看的。

这看起来有点像实时3D电影,有点像《美国队长:内战》,钢铁侠和钢铁侠展示他们的少年。

实际上,这是一个实时的3D模型,由高分辨率传感器、数十个场扫描传感器和65英寸的“光场显示器”重成。谷歌表示,这个项目已经开发了好几年,背后是大量的计算机视觉、机器学习、空间音频和数据压缩技术。谷歌还开发了突破性的光场系统,可能不用眼镜或耳机就能感受到真实的体积和深度。

谷歌计划在今年晚些时候推广Starline项目的小规模推广。除了问候亲朋好友,这个技术应该是电话会议。一定要经历“人坐家领导”。

Starline只是I/O会议中众多新技术的一小部分。20年前,10年前,谷歌利用机器学习技术的领先地位。谷歌大脑团队Quoc v.Re、Jeff Dean、Samurai等人发表了著名的“识别猫”论文,其中研究人员使用1000台计算机的16万个处理器核心训练图像来确定经网络,这被认为是深度学习技术爆发的标志。

在谷歌的AI能力越来越“不可能”的今天,他们必须通过量子计算取得更多突破。

TPU v4,性能提高了十倍

2016年,谷歌发布了批定制AI芯片TPU。与传统的CPU和GPU组相比,这种特殊的芯片在搜索、翻译、语音助手、图像识别等AI任务中具有性能优势顺序。这些芯片的应用为谷歌业务带来优势,作为开发者云服务力量的一部分。谷歌将在2018年和2019年继续推出TPU v2和v3。

虽然谷歌TPU还没有出售,但它已经被认为是人工智能时代的特殊加速芯片型号。在今天的I/O大会上,谷歌发布了、最强大的芯片版本。

如果只看芯片的数据,TPU V4的功率是V3的两倍。如果看实际性能,V4相比上一代其实有十几倍。谷歌表示,主要是系统内部的原因。速度和架构改进。

奇乌里说,新的TPU在计算领域实现了里程碑式的突破。要达到一个Exaflop级别(每秒18个浮点,需要超级计算机和大量GPU,现在只需要一套4096 TPU就可以做一套服务器。如今,世界500强超级成本公司排行榜日本“富悦”的业绩只有值的一半。

类似芯片公司提出的新AI加速器,英威达也差不多。谷歌TPU效率的秘密在于,最终芯片互连技术可以将数百个独立的芯片转变为紧密结的封闭系统。迟说:“POD所有芯片大规模互联的带宽是其他任何网络技术的十倍。”

TPU V4已经部署在谷歌的数据中心,芯片实例将于今年晚些时候向人们开放。

此外,谷歌表明,TPU V4的更高运行效率的好处是更环保。在未来将要部署的数据中心中,TPU将运行近90%的无碳新能源。

妈妈,比伯爵多,多语言模式多1000倍。

在I/O会议上,谷歌使用TPU V4来演示人工智能的应用。我们知道,很多AI应用都是基于变形金刚的,变形金刚是谷歌研究人员在2017年提出的,取代了LSTM和注意力结构,实现了更好的翻译任务结果。然后,这项技术引发了预训练模式的技术突破。

很多人都知道阅读理解模型Bert,其中T是变压器;谷歌正在开发搜索模型T5,其中T是变压器;如果你知道世界上的预训练AI模型GPT-3,其中T也代表变形金刚。

谷歌的模式是学做Mom(多任务统一模式,多任务统一模式)。谷歌表示,虽然也是基于transformer架构,但Mom比Bert高1000倍。

从名字可以看出,MUM是一个多模型模型(可能会扩展到音频、视频等。)可以处理网页等各种数据。这种多模式设计使其成为搜索的理想选择。谷歌表示,现在的搜索引擎并不智能,无法通过一个问题提供更全面的信息,因此人们需要多次搜索。但是妈妈之后,这个问题就可以解决了。

比如你之前去过亚当斯山,现在我想去富士山。你想知道你应该做什么样的准备。这种情况下,你只需要在搜索引擎里搜索“我需要准备什么”,背后的妈妈就能知道你所说的“准备”,比如两座山的区别,需要进行什么样的锻炼,携带什么装备,徒步路线,然后你会指向网上有用的文章、视频、图片。

这个多模还可以搜索文字之外的信息,比如给你的鞋子拍照,问“我可以穿这双鞋去富士吗?”

另外,我妈还是多语种,用75种语言进行训练。这使得它能够提供不同语言之间的知识。还是上面的问题,关于

“富士”的信息是日本人,但与妈妈的祝福,你也可以用英语或其他语言搜索它们。是是拉达:没有聊天的语言模型除妈妈外,谷歌还在此I / O会议上发布:LAMDA(对话申请的语言模型)。与妈妈不同,Lamda专为对话而设计,是开放的域名对话。谷歌表示,拉达可以与无穷无尽的话题交谈。在接受对话培训的过程中,它掌握了开放对话和其他语言之间的良好区别,特别是“敏感”(理)和具体。例如,如果你说“我刚开始采取吉他课程”人类答案可能是:“多么令人兴奋!我的妈妈有一个老爷马丁,她喜欢玩”。在这种对话中,“如何交流”是一个理的答案,但我们也注意到这句话差不多四海(就像“我不知道”),所以我无法完成反映对话机器人的智慧。以下“我妈妈有一个老爷马丁,她喜欢玩”是人类对话的一个更重要的特征:背景和具体。谷歌表示,这就是他们的拉达已经了解到的内容。谷歌还表示,Lamda基于2020年的研究。研究链接:https://ai.googleblo网站站点" rel="nofollow" />