结合实际分析人工智能的主要搜索方法有哪些,搜索的概念 人工智能

智能搜索开发技术(主要分为4个部分来介绍多模搜索技术)201

结合实际分析人工智能的主要搜索方法有哪些,搜索的概念 人工智能

2010年,随着iphone4的发布,智能手机被广泛使用。从大学生到老人和孩子,移动互联网的发展如火如荼。近两年5G技术让下载速度越来越快。与传统的文本搜索技术相比,语音搜索、图片搜索等新的搜索方式已经以越来越多的产品形态出现。

今天的内容主要分为四个部分来介绍多模态搜索技术:

多模搜索:从移动出发,繁荣5G智能时代语音搜索:听得清,看得懂,看得满意视觉搜索:所见即所得“破圈”:无限可能01多模搜索:从移动出发,繁荣5G智能时代。

1.多模态搜索的概念

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

多模态搜索包括视觉搜索和语音搜索。在百度app的底部,语音按钮是语音搜索的入口。搜索框的右侧,相机键是视觉搜索的入口。语音搜索可以很好的替代文字搜索,而视觉搜索可以帮助用户方便的找到图片背后的信息。

2.百度为什么在2015年开始多模态搜索技术的积累?

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

以iphone为代表的智能手机时代的到来,使得语音输入成为可能。4G通信网络大大提高了上传下载的速度,上传图片不再困难。我们的网民已经从中青年扩大到两边的孩子和老人。3.5G新时代多模态搜索的变革

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

沉浸式体验。5G带宽更强大之后,我们需要有一些视频之外的更沉浸式的体验。延迟的减少。5G普及以后,特别是通过三个阶段在云边缘部署服务,包括很多模式,从云的前端到末端,这可能会带来很大的便利。新硬件。随着智能音响、蓝牙耳机、智能手表、智能眼镜的广泛使用,进一步推动了多模式搜索的用户需求。02语音搜索:听清楚,听懂,满意。

1.语音搜索有三个目标:听清楚,理解,满足。

仔细听:要把我们的语音信号准确转换成文字,有很多挑战:环境嘈杂;方言;声音太低。理解:即使我们把语音转换成文字,也不代表我们可以按照传统的搜索方式,把转换后的文字直接扔给搜索引擎去理解。原因:口语化的问题;长尾的问题;持续搜索。例如,第一次,用户会问“伦敦时间是几点”,但下一次,他不会说“巴黎时间是几点”,而是会问“巴黎在哪里?”满意度:对于一些特定的语音入口,比如智能音箱,我们不太可能把前十的搜索结果广播给所有用户,只能给用户最准确的top1结果。2.技术方案

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

这三个阶段的总体技术框架如下:

首先,仔细听这个链接。从输入来看,有两个:语音识别。在这个阶段,它更多的是将声音信号转换成基本文本;语音纠错,将用户的原文表达变成适合搜索引擎真正理解的查询。在内容表达的最终过程中,会有一些广播生成和语音合成,让交互更加自然。理解上有四个部分:查询泛化,这一步的目标实际上会把整个用户的长尾表达映射到一些搜索引擎更好理解的高频查询上;对英语口语的理解可以转化为问答问题;对语境的理解;整个搜索会话的管理是在满足这个环节的层面。站在整个百度通用搜索的肩膀上,需要在一些特定场景下给用户一些更准确的表达,所以需要智能问答技术,包括

知识图谱的技术,最后提供一些特定服务。

03视觉搜索:所见即所得

1. 目标

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

视觉搜索要做的事情就是所见即所得,无论是用户通过手机拍摄,或者是通过摄像头实时摄像看到的一些东西,我们都能给到其背后的内容,这里面大概有三个挑战。

  • 交互。交互技术是一个很重要,影响用户整个的交互效率比较高的环节。
  • 感知。不同于文本搜索把每一段文字或者自己的需求通过比较高级别抽象的东西去表达出来,视觉搜索需要从像素级来感知和构成更高级的物体级信息。
  • 识别。理解整个由像素集合所代表的一个个物体背后的信息。

2. 成就

经过几年的努力,百度取得了比较好的技术积累,实现了全球比较领先的视觉感知和搜索引擎。从交互上来看,基本可以在100毫秒左右,在手机端上就能给用户一个很好的感知反馈,同时覆盖了60多个场景,索引了8000多万种的实体,几十亿的商品,还有1000多亿的图片。

3. 视觉技术

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

整个视觉搜索的技术大概分为三个层面,

  • 第一个层面是视觉感知,这个层面主要再用户的手机本地计算,这里面包括2D和3D的检测,2d和3D的跟踪,包括一些简单的场景识别,还有支持AR定位和渲染。
  • 第二个环节是视觉识别,当我们在手机端完成这些感知之后,需要对感知到的这些物体做更详细的信息搜索和满足。
  • 第三个是基础技术,主要用来支撑上面的感知和识别,包括图像的理解、文本的理解、视频的理解,还有关于人体、人脸等等一些感知技术,也包括一些基础的云和端上的性能优化、多模态的QA技术等。

4. 视觉感知流程

把视觉感知打造成一个基于视频流的感知计算和MR交互的一个框架,这个框架是完全在端上去计算,主要包含六个流程

  • 检测与分割。主要是发现画面里面的一些基础的物体,以及它的一些物体类型。
  • 跟踪。因为我们要做连续的交互,画面会有持续移动,所以就会需要做一些跟踪和定位,去保持住跟踪物体的具体位置。
  • 粗粒度理解。端上对整个流量做一些简单理解,起到流量精准分发的目的。
  • AR展现。在云端搜索结果返回之后,把结果信息通过AR的方式展现。
  • MR交互。通过手指或者肢体表情交互,让用户可以与AR内容做更进一步的交互和交流。
  • 应用场景。最后是支撑已有的几个产品形态,包括动态多目标识别、拍题搜索、AR翻译、实时取词等。

视觉感知算法的演进

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术
  • 从2017年开始,我们第一次尝试在端上做物体检测技术,它的目标就是做轻量级模型。
  • 第二个阶段是在2018年,在做连续的帧检测的时候,解决新的检测稳定性的问题。
  • 2019年开始,我们想进一步提升小物体的检测效果,在Multi-Scale检测和网络结构自动搜索上做了一些工作。
  • 然后到20年会更多的去通过多阶段蒸馏和anchor free模型探索,进一步提升整体的检测效果。

算法迭代

  • 第一代检测算法:首先在第一个阶段轻量级的阶段,我们选型直接选了one stage的检测方法,使用公开的mobilenet-v1结合剪枝增加模型的速度,loss在layer层面也做了一些简单的优化,并且尝试使用了focal loss。
  • 第二代检测算法:刚刚提到我们发现了一个新的问题,在连续检测时检测的输出会发生很大的变化,这是影响着连续帧的检测稳定性的一个根本的原因。我们首次提出问题的定义和量化公式,最终结合多帧信息非常好的解决了检测稳定性问题,同时兼顾了性能。
  • 第三代检测算法:第三代的主要目的是解决小物体召回,基本上从两个阶段来入手,第一个就是整体的网络模型结构,yolo-v3对小物体会更加友好,第二个是引入了网络的结构化搜索,会进一步提升对小物体的优化。
  • 第四代检测算法,我们观察到,虽然改进后yolo-v3效果已经很不错,但是与retinanet-50甚至更大的模型相比,还是有很大的差距。因此希望通过蒸馏的方式进一步提升检测结果的准确率。

5. 视觉识别检索的流程

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

基本的流程是:基于sift或者cnn提取的特征,然后使用ANN进行检索。

我们大概经历了三个阶段的演进:

  • 第一个阶段是2015年刚开始做的时候,基于有监督的方式。
  • 第二个阶段是2018年的时候,我们开始引入了半监督的方式,通过数据驱动训练图像以及视频的特征表示。
  • 从20年开始,我们从半监督向无监督的方式去升级算法,希望利用到更多的数据去学习到一个更加适合任务自身场景、泛化能力也更好的特征表示。

有监督方法存在的问题

  • 第一个有标注的数据,数据规模往往比较小,而且噪声也相对来说比较多一些。
  • 第二点由于它的规模比较小,所以样本多样性往往是不足的。
  • 第三个问题是通过这种人工标注,有多少人工就有多少智能,标注成本也是非常高的,而且这个周期也比较长。

无监督方法的选型和演进

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术
  • 第一种是比较偏向于传统的谱聚类的方式实现,根据向量得到pair之间的相似度,然后将聚类的编号作为数据的label。
5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术
  • 第二种是以BYOL算法代表的,将图片经过多种增强后得到自身的变形,通过原始图和变形图之间的对比学习,学习到整个图片比较好的特征表达。

04”破圈“:无限可能

破圈无限可能,未来多模搜索的技术和产品形态会往哪里发展?度晓晓App是答案之一。

5G+智能时代的多模搜索技术
5G+智能时代的多模搜索技术

度晓晓是在20年百度世界大会上第一次发布的多模搜索新的产品,从技术角度来看它是语音、视觉、文本三大技术领域的一个交汇,汇聚了语音识别、图像识别,还有智能搜索、NLU和多轮对话的技术,同时它本身有一个虚拟形象存在,富含多种情感的语音合成技术,它的背后是百度多种技术方法和产品的融合,包含着信息和服务搜索,以及互动娱乐的部分。

未来通过更多的整合多模搜索技术,将产生更多无限可能。

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/175514.html

(0)

相关推荐