2020年,从空中喊话的“硬核”无人机,到社区里协助警察巡逻的机器人,到云计算完成病毒基因组测序……一场新冠肺炎疫情,将人工智能(AI)应用全面推送到社会公共事件的方方面面中,并掀起了新一波研发高潮,使AI技术成为抗疫中不可或缺的力量。
如同人类从婴儿逐步学习成长一样,人工智能是机器不断学习进步的过程。伴随人工智能、大数据等技术的加速发展应用,一个智能化的社会形态初步呈现在世人面前。
人工智能开启战疫“加速键”
这次新冠肺炎疫情,让我们见识了人工智能参与防疫的各种花式操作。“AI+药物研发”这一医疗AI赛道也获得了越来越多的关注。
1月29日,阿里云宣布向全球公共科研机构免费开放一切AI算力,以加速本次新冠肺炎新药和疫苗研发。
据介绍,创新药的研发从认知疾病发生原因、确定针对疾病的药物靶点、实验室发现新的分子或化合物开始,通过体外及动物体内实验了解其安全性、毒性反应,以及在动物体内的代谢过程、作用部位和作用效果,再经过首次人体试验,经历Ⅰ期、Ⅱ期、Ⅲ期临床试验,证实安全有效及质量可控制之后,才可以获批上市。整个研发过程往往需要10到15年时间,投入10亿到15亿美元。
因此,降低研发成本一直都是药企永恒不变的主题。
“目前,全球健康药物研发中心正与我们合作开发人工智能药物研发和大数据平台,针对SARS/MERS等冠状病毒的历史药物研发进行数据挖掘与集成,开放相关临床前和临床数据资源,计算靶点和药物分子性质,并跟进新型冠状病毒最新科研动态,实时向科学界和公众公布,为新型冠状病毒科学研究提供重要数据支撑。”阿里云相关负责人介绍。
“AI技术可以通过对现有数据库信息的整合和数据提取、机器学习,提取大量不同属性的关键信息。”河北工业职业技术学院智能制造学院副院长胡孟谦说,这不仅避免了重复多次的试错,还能大幅提高目标筛选的成功率。
阿里云只是人工智能型企业发挥技术优势抗疫的一个缩影。疫情之下,人工智能的相关应用都已开启“加速键”。
阿里巴巴达摩院针对新冠肺炎临床诊断研发了一套全新AI诊断技术,AI可以在20秒内准确地对新冠疑似案例CT影像做出判读,分析结果准确率达到96%,大幅提升诊断效率。
腾讯也不甘示弱,开始寻找深入场景的可能。紧急推出“政务联络机器人”,其核心功能包括疫情防控联络和疫情问答两大服务。这款机器人将向全国各地政府部门、医疗机构、公益机构提供疫情防控辅助服务,有望有效缓解各级组织由于人力不足、资源紧张导致的疫情防控压力,并可显著加速疫情防控信息采集的效率。
此外,百度、小米、京东、旷视科技、第四范式、云知声等一系列企业,将人工智能技术辐射到辅助诊断、发热检测、无人服务、信息采集、企业线上化转型等领域,为疫情防控提供“科技智慧”。以医院为例,据不完全统计,已有20余款人工智能系统应用在武汉等抗疫一线以及全国数百家医院,服务人群包括疑似病例和确诊病例达到数十万人次。
“日益成熟的人工智能技术,正成为此次抗击疫情中一群特别的‘逆行者’。”胡孟谦说,在这场特殊的战役中,人工智能不再高不可及,不再只是前沿理论,也不仅仅是一串串代码,而是成为公共事件中不可或缺的力量之一。
人工智能是如何思考的
AI为何能发挥出如此大的作用,“魔力”的来源究竟是什么?
“人工智能的思考方式其实和人类非常相似,都是通过大量的经验积累,形成一定的规律认知,然后去判断未知事物。”胡孟谦说,它是一种使用机器代替人类实现认知,分析,决策等功能的综合学科。
在这样一个过程中,强大的计算能力是人工智能实现的底层支撑,而这个基础层则主要包括大数据、硬件算力和算法模型,其中大数据对应人的经验,硬件算力对应人的大脑本身,而算法模型则对应我们大脑思考的方式。
因此,算法也是人工智能的灵魂,是“魔力”的主要来源。
人工智能的算法经历了一个漫长的进化过程,早期的人工智能能实现的动作十分固定呆板,比如首台采用人工智能的移动机器人Shakey,它带有视觉传感器,能根据人的指令发现并抓取积木,虽然只能实现这种简单的识别和动作,但在当时已经令人感到非常兴奋。胡孟谦说,随着技术研究的深入,开始出现了机器学习算法。
科学家对机器学习的研究最早是从婴儿身上得到了启发。“没有人教过婴儿怎么‘看’,但是他们通过在真实世界中不断看到某一样事物,当看到的数量足够多时,就认识了该事物。”胡孟谦说,比如给计算机看非常多猫的图片,让计算机自己抽象出猫的特征,自己领悟什么是猫,这种方法被称为机器学习。
机器学习的算法有很多种。总体上可以分为有监督学习、无监督学习、半监督学习和强化学习。
那么,这些算法是如何让机器拥有“智能”的?
胡孟谦介绍,监督学习、无监督学习和半监督学习的区别主要在于输入的训练资料是否有特定的标签。
监督学习的训练是通过大量有标签的资料来建立,比如将图片标注为“苹果”和“橘子”,通过大量学习后的模型,就能够准确识别新照片上的水果分类;而无监督学习训练的资料则没有对应的标签,主要用来寻找大量数据的内部关联性;顾名思义,半监督学习则介于两者之间,输入的数据部分被标识,部分没有被标识,通常需要先通过找寻被标识数据的规律,来对未标识数据进行标识,再进行训练。
与前三种算法不同,强化学习实际上是一种学习模型,它并不会直接给人解决方案——你需要通过试错去找到解决方案。“Alphago用的就是强化学习,它不需要标签,你选择的行动越多,得到的反馈越多,通过执行这些行动看是输是赢来学习下围棋,这不需要有人告诉你什么是好的行动什么是坏的行动。”胡孟谦说。
近几年,掩盖了经典的机器学习的深度学习,由于能够处理大量的数据,并且在精准度、特征识别和解决问题的方式上都有绝对的优越性,逐渐成为大多数AI类型问题的首选技术。
“机器学习的算法仍然在不断的更新迭代中,深度学习和强化学习作为自主学习系统,将会成为未来的机器学习的发展方向。”但专家也表示,人工智能变得越来越精确的同时,背后算力的消耗也越来越大,而这对人工智能的硬件算力也提出了更高的要求。
“小”AI解决人工智能的“大”烦恼
美国马萨诸塞大学阿默斯特分校研究人员通过揭示算法训练的能量强度发现,训练一种算法产生的二氧化碳排放量相当于一辆普通汽车终生二氧化碳排放量的5倍,或者相当于飞机在纽约和旧金山之间大约300次的往返飞行。
有专家认为,越来越“大”的人工智能并不适合离线和实时决策,比如自动驾驶解决方案,且日益依赖于巨大的能量、巨大的带宽,这种模式在经济和生态上同样具有不可持续性。“未来的人工智能会向着越来越‘小’发展。”胡孟谦说。
近日,《麻省理工科技评论》公布年度十大突破性技术排行榜,微型人工智能技术(TinyAI)位列其中。
以谷歌公司高级研发科学家雅各布·德夫林和他的团队开发的预训练语言模型——伯特(Bert)为例。它可以理解单词和上下文,可以为写作提出建议或独立完成句子。拥有3.4亿个数据参数。训练它一次所需的电力足够一个美国家庭使用50天。
为缩减模型的大小,华为制作了微型伯特(TinyBert)模型,尺寸比伯特缩小7.5倍,速度还快了近10倍。谷歌也已经造出了一个比伯特小了60多倍的版本,但其语言理解能力略差于华为的版本。
“简单来说,不论是微型伯特还是更小的其他人工智能模型,都是一种知识提取技术的应用,是研究人员在缩小算法规模中做出的努力。”专家介绍,虽然模型缩小了,但并不会降低人工智能的推理速度,相反,它还会保持较高的精准性,为我们提供更好的决策支持。
在2019年年底的安博会上,已有人工智能初创企业推出“TinyAI”,该公司将低功耗、小体积的NPU与MCU整合,适配市场上各种主流的2D/3D传感器,满足2D/3D图像、语音等识别需求的AI解决方案受到了业界的关注。此外,英伟达(NVIDIA)和华为等公司,也都陆续推出了终端型图形处理器,体型较小、功耗较低、功能可以满足简单的算法。
但微型人工智能尚处于初期发展阶段,该领域的安全、伦理、隐私等问题也引起了人们的关注。
专家认为,微型人工智能会导致分布式人工智能的兴起,每个终端都成为一个AI节点,各自都能独立存活,出现类似区块链的应用。网络侧的控制力度将降低,政府的管控风险加大。不过,技术都是两面性的,虽然有这些风险,但是对人工智能的管控技术也在发展,我们应该相信微型人工智能的正面作用。(河北日报记者王璐丹)