cn

数据解决方案

请输入姓名

手机号码格式错误

请输入联系电话

请输入公司名称

请输入正确的工作邮箱

请输入数据需求

提交成功!感谢您支持数据堂。

填写格式错误请重新填写

确定

数据需求不能小于5个字且不能为纯数字

https://www.datatang.com

https://www.datatang.ai

m.datatang.ai

智能座舱行为识别数据解决方案,助力打造第三空间新体验

作者:数据堂 发布时间:2023-03-30

智能座舱关注车内感知,通过在车内安装摄像头感知驾驶员和乘客的行为以及车内状况座舱行为识别任务旨在识别车辆座舱中驾驶员及乘客的行为,改善驾乘体验提供技术支持,以提供驾驶员和乘客更好的驾乘体验和更安全的行车保障。


座舱行为识别-数据标注方式


对于不同的座舱行为,识别的人体目标不同,因此标注的方式不同,典型的标注方式包括人脸关键点标注,手势关键点标注,物品检测框标注,物品&行为标签标注。典型的例子如下:


1人脸标注

此类标注方式用于识别人脸相关的行为。

例如疲劳驾驶识别、视线偏移识别等,具体的标注形式是标注人脸关键点+行为的标签。


2人体&物品标注

此类标注方式用于识别人体及物体相关的行为。

例如抽烟识别、开车喝水、开车打电话等,具体的标注形式是标注物品的检测框+人手部检测框+行为类别标签信息。


3手势标注

此类标注方式用于识别手势动作。

例如手指不同指向,手掌动作,手指滑动等,具体标注行为为标注手势关键点+手势类别标签信息。


座舱行为识别-任务难点


基于不同座舱行为与人体目标的实际情况,座舱行为识别任务具备行为复杂、光照以及性能三个难点:


1行为复杂

座舱行为种类众多,并且部分行为存在一定程度的主观性(例如晕车、疲劳驾驶等行为),造成算法识别难度较大。


2光照难点

汽车在行驶过程中会面临来自不同方向的强光干扰,造成人脸、人体、物体等目标会出现光照不均匀,此外在夜晚时间光照不足,在不开车内灯光的情况下,普通的彩色镜头无法捕捉足够识别的信息,需要红外镜头辅助。


3性能难点

车载场景不同于实验室场景,设备的功耗和算力均需控制在一定程度内,而算法识别的准确率要求又很高,因此如何小型化模型并兼顾算法精度是一个重要研究方向。



一份来自数据堂的解决方案

数据堂针对座舱行为识别的任务需求和难点,从数据层面针对性设计了下述数据集,分别介绍如下:


1307人驾驶员行为采集数据

该数据集采集黄种人、黑人、白人和印度人共1307人驾驶员行为采集数据。在采集设备配置方面,为保证数据在夜晚或者驾驶员戴墨镜情况下的数据有效性,数据采集采用了RGB+红外双目镜头,提供彩色视频和红外视频两种数据模态。在机位架设方面,该数据在车内后视镜中央、车内中控台上方及车内左侧A柱上方假设三个机位,具体示意图如下:




在具体行为种类方面,数据集涵盖了座舱驾驶员行为识别需要的绝大多数行为种类,包含驾车打电话、未系安全带、驾车抽烟、驾车喝水、开车戴墨镜、双手脱离方向盘等危险驾驶行为;开车时闭眼、频繁眨眼、点头、打哈欠等疲劳驾驶数据;开车时视线上下左右偏移的视线偏移行为。每个人共采集150段视频。


数据规模
1307人
人员分布
男性695名,女性612名
采集环境
车内摄像头
采集多样性
多人种、多年龄段、多时间段、多种行为(危险驾驶、疲劳驾驶、视线偏移)
采集设备
可见光和红外双目摄像头
采集时间
白天、傍晚、夜晚
图像参数
.avi 分辨率640*480
准确率
精度>95%


103,282张驾驶员行为标注数据

该数据为1307人驾驶员行为采集数据中对1003人中国人数据的抽帧标注。在具体标注中,针对不同的行为类别,采取两种不同的标注方式。对于正常驾驶、开车闭眼、开车频繁眨眼、开车打哈欠、开车点头及视线偏移行为,采用人脸72关键点+人脸属性+人脸检测框+手势框标注;对于未系安全带驾驶、开车喝水、驾车打电话、驾车抽烟等危险驾驶行为,采用人脸属性+瞳孔关键点+安全带框+人脸检测框+手势框标注。


数据规模
103282张
人员分布
18-60岁黄种人,男女比例均衡
采集环境
车内摄像头
采集多样性
多年龄段、多时间段、多种行为(危险驾驶、疲劳驾驶、视线偏移)
采集设备
可见光和红外双目摄像头
采集时间
白天、傍晚、夜晚
图像参数
图像格式为 .jpeg,标注文档格式为 .json
标注说明
人脸72关键点(包括瞳孔)、人脸属性、手势检测框、安全带检测框、行为类别
准确率
准确率>95%


122人乘客行为识别数据

该数据集采集黑人、白人和印度人共122人的乘客行为识别数据。在采集设备配置方面,为保证数据在夜晚或者乘客戴墨镜情况下的数据有效性,数据采集采用了RGB+红外双目镜头,提供彩色视频和红外视频两种数据模态。在机位架设方面,该数据在车内后视镜中央、车内右侧A柱上方、车内左侧B柱上方、车内右侧B柱上方架设四个机位,具体示意图如下:




在具体行为种类方面,数据集涵盖了乘客行为识别需要的大多数行为种类,包含乘客打电话、玩手机、看书、喝水、抽烟、吃东西、手伸到车窗外、用笔记本办公等正常行为;乘客不同程度晕车、不同程度困倦、遗落物品等异常行为。每位乘客共采集120段视频。 


数据规模
122人
人员分布
男性86人,女性36人;白、黑、棕三种肤色
采集环境
车内摄像头
采集多样性
多人种、多年龄段、多时间段、多种行为(正常行为、晕车行为、乘客困意行为、乘客遗落物品行为)
采集设备
可见光和红外双目摄像头
摄像头位置
车内后视镜中央、车内右侧A柱上方、车内左侧B柱上方、车内右侧B柱上方
采集时间 白天、傍晚、夜晚
车型 小轿车、SUV
数据格式
.avi
准确率
准确率>95%



314,178张18种手势识别数据

该数据集采集中国人静态手势数据,用于人机交互。数据集总计314178张图像,18种静态手势,涉及1000名以上中国人。该数据利用手机拍摄不同机位、不同手势、同一手势不同方向的左右手手势数据。从手势种类来看,包含日常人机交互等18种常用单手及双手手势,具体包括数字1-6、数字8、单手比心、OK、点赞、踩、握拳、Rock、Love、双手比心、双手合十、拜年、抱拳礼。在数据标注方面,对手势图片采用手部21关键点+手势标签标注,标签包括手势类别、采集者性别、左右手、手势正面背面、采集背景、相机位置、手势旋转角度等。 


数据规模
40人
人员分布
中国人,男、女性各20人
年龄分布
18-57岁每个年龄各一人
采集环境
室内、外场景各20人
采集多样性
多种动作、人脸多姿态、多种对抗样本、多种光照条件、多种场景
采集设备
多种带3D结构光模组的苹果手机(iphone X及以上记性)
数据格式 .jpg、.xml、.json
车型 小轿车、SUV
标注内容
标签标注人物ID、人种、性别、年龄、人脸动作、对抗样本类别、光照条件



558870段50种动态手势识别数据

该数据集采集中国人动态手势数据,用于人机交互。数据集总计558870段视频,50种动态手势,涉及1000名以上中国人。该数据利用手机、iPad及笔记本电脑从不同角度拍摄左右手手势数据。从手势种类来看,包含日常人机交互等50种常用的动态手势,具体包括手指滑动,手掌滑动,全掌变换、拳部滑动,静止等。在数据标注方面,标注各段视频标签,标签包括手势类别、采集者性别、左右手、采集背景、拍摄角度等。



数据规模
558870段,笔记本电脑采集219660段;手机/iPad采集339210段
人员分布
中国人,18岁以下、18-40岁、40岁以上
采集环境
室内外场景(自然景观、街景、广场等)
采集多样性
多种场景、多种光照条件、不同拍摄距离、5种拍摄角度、50种动态手势
采集设备
手机、iPad、笔记本电脑
采集角度
正面、左/右斜视、俯视、仰视
采集距离 0.3米、0.6米、1米、2米、3米
车型 小轿车、SUV
数据格式
.mp4、.mov、.wmv
准确率
准确率>97%


座舱智能化发展是以数据为底层基础,根据不同车厂的设计以及用户不同的使用习惯,会产生大量的差异化需求,数据的处理相应变得多样复杂。数据堂从底层数据设计和规划做起,针对差异化需求提供定制化数据方案,以满足座舱内交互的基本功能点。

语音合成(TTS)_数据堂