2020年12月31日,北(běi)京智(zhì)源人工智(zhì)能研究院(以下简称(chēng)“智源研究院”)发布了《2020人(rén)工智能(néng)十大(dà)进展报告》。该(gāi)报(bào)告由智(zhì)源研究院全体智(zhì)源学者共同参与,对2020年里全球范围内(nèi)人工智能领域的科学系统、算法等(děng)方向进(jìn)行了评价分析(xī),最终形成(chéng)了十大进展成果。其中,由(yóu)中国学者(zhě)取(qǔ)得的进展(zhǎn)有3项。
这十大进(jìn)展分别是:
进展1:OpenAI发布全球规模最大的预训练语言模型GPT-3;
进展(zhǎn)2:DeepMind的AlphaFold2破解(jiě)蛋白(bái)质结构预测难题;
进展(zhǎn)3:深度势能分子动力学研究获得戈登·贝尔奖;
进展4:DeepMind等用深度神经网络求(qiú)解薛定谔(è)方(fāng)程促进量子化学(xué)发展;
进展5:美国贝勒医学院(yuàn)通过动态(tài)颅内电刺激(jī)实现高效(xiào)率“视(shì)皮层打印机”功能(néng);
进展6:清华大学首次提出类脑计(jì)算完备性概念及计(jì)算系统层次结构;
进展7:北京(jīng)大学首次实现(xiàn)基于(yú)相变存储器的神经网络高速训练系统;
进(jìn)展8:MIT仅用19个类脑神经(jīng)元实现控制自动(dòng)驾驶汽(qì)车;
进展9:Google与(yǔ)FaceBook团队分别提出全新无监督表征学(xué)习(xí)算法;
进展10:康奈尔(ěr)大学提出无偏公平排序模型(xíng)可缓解检索排(pái)名的(de)马(mǎ)太(tài)效应问(wèn)题;
在(zài)中国学者取得的进展(zhǎn)中,北京应用物理与计算数学研(yán)究院王(wáng)涵所在的“深度势能(néng)”团队(duì),获得了国(guó)际高(gāo)性能(néng)计算应(yīng)用领域最高奖项“戈登·贝尔(ěr)奖”。“戈(gē)登·贝尔奖”设立于1987年,由美国计算(suàn)机协会(ACM)颁发,被誉为“计算应用领域的诺(nuò)贝尔奖(jiǎng)”。该(gāi)团队研究的(de)“分子(zǐ)动(dòng)力(lì)学”,结(jié)合了分子建模、机(jī)器学习和(hé)高性能计(jì)算(suàn)相关方法,能够将第一性原理精度分子动力学模拟规(guī)模扩展到1亿原(yuán)子,同时计算效率相比(bǐ)此前人类最好水(shuǐ)平(píng)提升1000倍以上,极大地提(tí)升(shēng)了人类使用计(jì)算机(jī)模拟客观物理世(shì)界的能力。
清华大学张悠慧、李国齐、宋森团队首次提出“类(lèi)脑计算完备性”概念(niàn)以及(jí)软硬件去耦合的类脑计算系统层(céng)次结构,通过理论(lùn)论证与(yǔ)原型实验证明该类系(xì)统的硬件完(wán)备性与编译可行性,扩展了类脑(nǎo)计算系统应用范围(wéi)使之能支持通用计算(suàn)。《自然》周刊评论(lùn)认为,“‘完(wán)备性’新概念推(tuī)动了类脑计算”,对于类脑系统存(cún)在的软硬件紧耦合问(wèn)题而(ér)言这是“一个突破性(xìng)方案”。
北京(jīng)大学杨(yáng)玉(yù)超团队提出并实现了一种基于相变存储器(PCM)电导随机性(xìng)的神经网络高速训练系统,有效地缓(huǎn)解了人工神(shén)经网络训(xùn)练过程中时间、能量开销巨大并难以在片上实现的问题。该系统在误差直接回传算法(DFA)的基础上进行改进(jìn),利用PCM电导(dǎo)的(de)随(suí)机性自(zì)然地产生传(chuán)播误差(chà)的随机权重,有效降低了系(xì)统(tǒng)的硬件(jiàn)开销(xiāo)以及训练(liàn)过程中的时间、能量消耗(hào)。该系统(tǒng)在大型卷积神经网(wǎng)络(luò)的训练过程中表(biǎo)现优异,为(wéi)人工神经网络在终端平台上的应用(yòng)以及片上训练的实现提供了新的方向。