正在阅读:

李飞飞的新研究,将让“给AI打工的人”再一次失业

扫一扫下载界面新闻APP

李飞飞的新研究,将让“给AI打工的人”再一次失业

AI 的未来,可能真不需要人了。

文 | 硅星人 光谱 杜晨

你可能听说过,在河南的农村里,在非洲的城市中,每一个你想象不到的地方,有着大量的数据标注员。

他们手动在图片里把每一只花瓶和每一辆汽车框出来,并且标上“花瓶”和“汽车”。一段时间后,这些人把成千上万张标记好的图片打包,发送给远在北京、上海甚至旧金山的 AI 公司。

GQ 将这些人称为《那些给人工智能打工的人》[1]。

图片来自 G

人工智能发展迅速,大大小小的互联网科技公司相继开展研究,投入商用。然而训练一个可用的 AI,需要大量准确标记好的图片、视频等资料。

正因为此,市场对数据标注的需求如此之大,吸引“那些给 AI 打工的人”争相加入,其中不乏原来找不到工作的闲散人员——毕竟这份工作只需要动动鼠标,用不上太多知识。

但是,恐怕不久后,这些人就将再次失业。

上周,来自约翰·霍普金斯大学、斯坦福大学和 Google 的专家联合发布了一篇论文,介绍了他们使用神经网络来自动搜索神经网络,将其投入图像分割方面的研究,并且取得的重要进展:

研究人员采用神经架构搜索 (Neural Architecture Seartch, NAS) 技术设计了一个神经架构 (A),放任它去自动搜索/设计出新的神经架构 (B),投入到图像语义分割 (semantic image segmentation) 的任务中。

研究人员发现,这个被自动搜索出来的神经架构 B,在主流的小规模图像数据集上,未经训练就直接使用,表现已经超过了现有人类设计的、预先训练好的模型。

用人话来说:

以往人们一直相信,设计 AI 需要大量知识和经验,简而言之就是需要人来设计。

但现在,AI 设计出的 AI,已经比人设计出的 AI 更强。

论文的名字叫做《Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation》[2]。

研究人员将这个能够自动搜索(设计)神经架构的技术命名为 Auto-DeepLab。这个名字来自于 DeepLab,Google 人工开发的图像语义分割技术。前面加上 Auto,意思是在 DeepLab 的基础上,新的技术可以实现了很大程度的自动化。

论文署名作者当中,两人来自约翰·霍普金斯大学,其中第一作者是 Chenxi Liu,曾在 Google 实习;有四人来自 Google;剩下的一人来自斯坦福大学,正是原 Google Cloud 首席科学家,在计算机视觉学术和业界知名的李飞飞教授。

“本着 AutoML(编者注:Google 主导的 AI 计划,将算法选择,模型的超参数调整,迭代建模和模型评估等工作自动化。)和人工智能普及化的精神,对于不依赖专家经验知识,自动设计神经网络架构,人们的兴趣有了显著提升。”论文作者提到。

在“AI 自动设计 AI”这件事上,Auto-DeepLab有几个比较重要的新尝试。

首先,神经架构搜索 NAS 技术是 AI 领域的新兴物种,主要用于简单的图片分类。而在这篇论文里,研究者首次尝试将 NAS 投入到高密度的图片预测任务上(也就是对更复杂的高分辨率图片进行语义分割,比如 Cityscapes城市街景数据集、PASCAL VOC 2012 和ADE20K 等数据集)。

其次,在计算机视觉领域内的神经网络架构,通常分为内层、外层的两级架构,自动化的神经架构设计往往只能设计内层,外层仍需要人来设计和手调。而 Auto-DeepLab 是第一个让 AI 掌握外层设计和调参能力,并在图像语义分割任务上得到优异结果的尝试。

“图像语义分割”六个字听上去有点拗口,其实很好理解:对于一张图划分几个类别,然后将所有的像素点归类。

比如下面这张图,可以简单分为三类。图像语义分割的任务,就是判断每一个像素点属于人、自行车,还是背景。

图片来自 Jeremy Jordan: An overview of semantic image segmentation [3]

需要明确的是,图像语义分割的任务纯粹是判断像素点属于哪个类别,它不能识别和区分独立的物体。

不过图像语义分割仍然有很重要的意义,比如在它可以用于手机拍照的“人像模式”。采用更优秀的图像语义分割技术,手机能够在更高精度的照片里确认每一个像素点,属于人,亦或是背景。

目前 Google、小米等公司都在手机拍照上使用这一技术。理论上,未来的“人像模式”可以在毛发、衣物边缘实现更好的效果。

图片来自红米手机广

以及在自动驾驶的场景里,神经网络需要判断挡在前面的是车、行人还是建筑物,进而采用不同策略进行躲避,这同样需要图像语义分割来打基础。

图片来自 Karol Majek: Tensorflow DeepLab v3 Xception Cityscapes [4

从该论文体现的效果来看,Auto-DeepLab 还可以被转移、泛化到其他任务上。言外之意,让AI 自动设计 AI 这件事,可能还会有很大的想象空间。

比如作者在论文最后提到,在目前的研究框架内,他们可以继续在物体识别的方向进行研究。

硅星人认为,如果能够取得类似的结果,这将意味着在数据标注(特别是图像标注)这件事上,人类标注员的准确度、成本等优势会进一步消失。

人工智能可以给人工智能打工,打工效率比人还高。

届时,“那些给人工智能打工的人”可能又会失去工作了……

来源:硅星人

原标题:李飞飞的新研究,将让“给AI打工的人”再一次失业

本文为转载内容,授权事宜请联系原著作权人。

Alphabet

1.9k
  • 机构:2023年全球手游内购收入下降2%至540亿美元
  • Alphabet开盘大涨6.1%

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

李飞飞的新研究,将让“给AI打工的人”再一次失业

AI 的未来,可能真不需要人了。

文 | 硅星人 光谱 杜晨

你可能听说过,在河南的农村里,在非洲的城市中,每一个你想象不到的地方,有着大量的数据标注员。

他们手动在图片里把每一只花瓶和每一辆汽车框出来,并且标上“花瓶”和“汽车”。一段时间后,这些人把成千上万张标记好的图片打包,发送给远在北京、上海甚至旧金山的 AI 公司。

GQ 将这些人称为《那些给人工智能打工的人》[1]。

图片来自 G

人工智能发展迅速,大大小小的互联网科技公司相继开展研究,投入商用。然而训练一个可用的 AI,需要大量准确标记好的图片、视频等资料。

正因为此,市场对数据标注的需求如此之大,吸引“那些给 AI 打工的人”争相加入,其中不乏原来找不到工作的闲散人员——毕竟这份工作只需要动动鼠标,用不上太多知识。

但是,恐怕不久后,这些人就将再次失业。

上周,来自约翰·霍普金斯大学、斯坦福大学和 Google 的专家联合发布了一篇论文,介绍了他们使用神经网络来自动搜索神经网络,将其投入图像分割方面的研究,并且取得的重要进展:

研究人员采用神经架构搜索 (Neural Architecture Seartch, NAS) 技术设计了一个神经架构 (A),放任它去自动搜索/设计出新的神经架构 (B),投入到图像语义分割 (semantic image segmentation) 的任务中。

研究人员发现,这个被自动搜索出来的神经架构 B,在主流的小规模图像数据集上,未经训练就直接使用,表现已经超过了现有人类设计的、预先训练好的模型。

用人话来说:

以往人们一直相信,设计 AI 需要大量知识和经验,简而言之就是需要人来设计。

但现在,AI 设计出的 AI,已经比人设计出的 AI 更强。

论文的名字叫做《Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation》[2]。

研究人员将这个能够自动搜索(设计)神经架构的技术命名为 Auto-DeepLab。这个名字来自于 DeepLab,Google 人工开发的图像语义分割技术。前面加上 Auto,意思是在 DeepLab 的基础上,新的技术可以实现了很大程度的自动化。

论文署名作者当中,两人来自约翰·霍普金斯大学,其中第一作者是 Chenxi Liu,曾在 Google 实习;有四人来自 Google;剩下的一人来自斯坦福大学,正是原 Google Cloud 首席科学家,在计算机视觉学术和业界知名的李飞飞教授。

“本着 AutoML(编者注:Google 主导的 AI 计划,将算法选择,模型的超参数调整,迭代建模和模型评估等工作自动化。)和人工智能普及化的精神,对于不依赖专家经验知识,自动设计神经网络架构,人们的兴趣有了显著提升。”论文作者提到。

在“AI 自动设计 AI”这件事上,Auto-DeepLab有几个比较重要的新尝试。

首先,神经架构搜索 NAS 技术是 AI 领域的新兴物种,主要用于简单的图片分类。而在这篇论文里,研究者首次尝试将 NAS 投入到高密度的图片预测任务上(也就是对更复杂的高分辨率图片进行语义分割,比如 Cityscapes城市街景数据集、PASCAL VOC 2012 和ADE20K 等数据集)。

其次,在计算机视觉领域内的神经网络架构,通常分为内层、外层的两级架构,自动化的神经架构设计往往只能设计内层,外层仍需要人来设计和手调。而 Auto-DeepLab 是第一个让 AI 掌握外层设计和调参能力,并在图像语义分割任务上得到优异结果的尝试。

“图像语义分割”六个字听上去有点拗口,其实很好理解:对于一张图划分几个类别,然后将所有的像素点归类。

比如下面这张图,可以简单分为三类。图像语义分割的任务,就是判断每一个像素点属于人、自行车,还是背景。

图片来自 Jeremy Jordan: An overview of semantic image segmentation [3]

需要明确的是,图像语义分割的任务纯粹是判断像素点属于哪个类别,它不能识别和区分独立的物体。

不过图像语义分割仍然有很重要的意义,比如在它可以用于手机拍照的“人像模式”。采用更优秀的图像语义分割技术,手机能够在更高精度的照片里确认每一个像素点,属于人,亦或是背景。

目前 Google、小米等公司都在手机拍照上使用这一技术。理论上,未来的“人像模式”可以在毛发、衣物边缘实现更好的效果。

图片来自红米手机广

以及在自动驾驶的场景里,神经网络需要判断挡在前面的是车、行人还是建筑物,进而采用不同策略进行躲避,这同样需要图像语义分割来打基础。

图片来自 Karol Majek: Tensorflow DeepLab v3 Xception Cityscapes [4

从该论文体现的效果来看,Auto-DeepLab 还可以被转移、泛化到其他任务上。言外之意,让AI 自动设计 AI 这件事,可能还会有很大的想象空间。

比如作者在论文最后提到,在目前的研究框架内,他们可以继续在物体识别的方向进行研究。

硅星人认为,如果能够取得类似的结果,这将意味着在数据标注(特别是图像标注)这件事上,人类标注员的准确度、成本等优势会进一步消失。

人工智能可以给人工智能打工,打工效率比人还高。

届时,“那些给人工智能打工的人”可能又会失去工作了……

来源:硅星人

原标题:李飞飞的新研究,将让“给AI打工的人”再一次失业

本文为转载内容,授权事宜请联系原著作权人。