11

GPT-3和AlphaFold 2震撼2020,2021年AI最大看点在哪儿?

 3 years ago
source link: https://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA%3D%3D&%3Bmid=2652097272&%3Bidx=1&%3Bsn=51fab7eb3b5f40c018e966db23d2c564
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

MjmUj2j.jpg!mobile

   新智元报道  

来源:外媒

编辑:LQ,LZ

【新智元导读】 2020年,GPT-3和AlphaFold 2两项基于Transformer的突破杀出重围,走进主流视野,人工智能以全新的方式深入我们的生活,2021年又将给我们带来什么新的突破呢?

2020年并不缺重磅新闻,但人工智能依然够杀出重围,走进主流视野。

尤其是GPT-3,它展示了人工智能即将以全新的方式深入我们的日常生活。

IZjY7zz.jpg!mobile

这些进步赋予了未来很多可能,预测未来变得并不容易,但伴随着技术应用的成熟,另一些领域的突破也是可预见的。

以下是2021年人工智能有望取得突破的几个方面。

GPT-3和AlphaFold背后的Transformer

2020年最大的两项人工智能成就悄无声息地共享着相同的基本结构。OpenAI 的 GPT-3和 DeepMind 的 AlphaFold 都是基于Transformer.

INb2am7.png!mobile

尽管 Transformer 自2017年以来就已经存在,但 GPT-3和 Alphafold 展示了 Transformer 的非凡能力,它比上一代序列模型学习得更深入、更快,并且在自然语言处理(NLP)之外的问题上也表现出色。

与循环神经网络(RNN)和 长短期记忆网络(LSTMs)等之前的序列模型结构不同。

Transformer能够一次处理整个输入序列,并且引入「注意力」机制来了解输入的哪些部分与其他部分相关。

NzQJZbb.jpg!mobile

这样,Transformer就能够轻松解决「长期记忆」的问题,这是循环模型一直在努力解决的问题。

另外,Transformer还允许并行训练,能够更好地利用近年来出现的大规模并行处理器,大大减少了训练时间。

毫无疑问,2021年研究人员将为Transformer寻找新的用武之地,对Transformer将要带来突破也充满信心。

2021年,OpenAI 已经修改了 GPT-3,发布了DALL-E,使其完成从文本描述生成图像。Transformer已经准备好要在2021年大展拳脚了。

2uuMf2.gif!mobile

2021年,图神经网络(GNN)发展的两大看点

许多领域的数据自然而然地适用于图形结构,比如计算机网络、社交网络、分子/蛋白质和运输路线等。

图神经网络(GNNs)使深度学习应用于图形结构化数据,我们期望 GNN在未来发挥更大的作用。

bEfUv2e.png!mobile

2021年,我们预计在几个关键领域的方法进步将推动更广泛地应用GNN.

「动态图」是第一个重要的领域。尽管迄今为止大多数 GNN 研究都假定了一个静态图,但这些情况会慢慢发生变化: 例如,在社交网络中,新成员的加入会产生新的节点 ,关系也会发生变化。

在2020年,我们看到了一些将时间演化图建模为一系列快照的做法,2021年这个新生的研究方向将会扩展,侧重于将动态图表建模为连续时间序列的方法。

这样的连续建模,除了通常的拓扑结构外,还应该使 GNN 能够发现和学习图中的时态结构。

对「消息传递范式」的改进将是另一大可操作的进展。消息传递是实现图神经网络的一种常用方法,它是通过沿着连接邻居的边「传递」信息来聚集节点信息的一种方法。

虽然直观,消息传递难以捕捉到需要信息在图上长距离传播的效果。

2021年,我们期待突破这一范式,例如通过迭代学习哪些信息传播路径是最相关的,甚至学习一个全新的关系数据集的因果图。

2021年的AI应用

去年许多头条新闻都强调了AI在实际应用中的新进展,2021年这些进展有望投入市场。

63Abayv.jpg!mobile

值得说明的是,由于GPT-3的API将更加可行,依赖于自然语言理解的应用程序也会越来越多。API允许用户访问GPT-3的功能,并且无需耗费精力训练自己的AI。

Microsoft已经获得了GPT-3独家使用授权,这项技术也许会出现在Microsoft的产品中。

zEbIve.png!mobile

在2021年,其他应用领域也将从AI技术中获益。AI和机器学习虽然已经进入了网络安全领域,但2021年将会爆发更大的潜力。

正如太阳风黑客事件所揭露的那样,一些公司已经面临网络犯罪分子和先进的恶意勒索软件的威胁。

beqyYfi.png!mobile

而AI和行为分析对于帮助识别新威胁甚至早期威胁至关重要。所以在2021年,希望能够推动最新的行为来分析AI,增强网络防御系统。

2021年,我们还期待有更多默认在边缘设备上运行机器学习模型的应用程序。

像谷歌的 Coral这样具有TPU的设备, 随着处理能力和量化技术的进步,也能够推广普及。

Qv2YF3I.png!mobile

图为Carol加速器模块,带有Google Edge TPU的新型多芯片模块。

Edge AI则消除了把数据发送到云上参照的需求,既节省了带宽又减少了执行时间,这两点对医疗保健等领域都至关重要。

yQVFfyq.png!mobile

边缘计算的应用程序还可以在一些需要隐私、安全和低延迟的区域,甚至世界上无法访问高速Internet的区域中打开。

未来难测,未来可期

随着AI技术在实际领域的运用越来越广泛,Transformer和GNN的进步也会促使它们在现有的AI技术和算法更进一步。以上只是重点介绍了几个有望在今年取得进展的领域,不过相信伴随进展的还会有更多的惊喜。

未来难测,但无论对错,2021年对于AI都将是令人兴奋的一年。

参考链接:

https://venturebeat.com/2021/01/31/heres-where-ai-will-advance-in-2021/

推荐阅读:

看了这款AI产品,我想重上一次小学

AbEr6n2.png!mobile

FJVV7bz.gif!mobile


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK