跳至正文

核心AI生产力平台

机器人导航与定位

利用视觉和激光等多传感器融合,智能重建环境三维信息、实现自身运动估计并在此基础上实现高效柔性的自主路径规划与避障。

视频结构化

视频结构化,即视频数据的结构化处理,就是通过对原始视频进行智能分析,提取出关键信息,并进行文本的语义描述

提供算法的训练、推理和部署能力;具备算力的共享、调度和分布式能力;拥有全面的 数据 处理、管理和安全能力。

SLAM 建图与定位技术

  • 高精到点:自然环境导航,构建高精特征地图,实现±1cm全程平均定位精度和±5mm的高精重复到点。
  • 视觉-激光融合:融合视觉、激光等多传感器的新一代 SLAM 技术,智能过滤动态物体,实现传统激光SLAM无法达到的动态环境适应性。
  • 重定位:基于深度学习的视觉场景识别技术,随时随地开机、重启,无需人为干预。
  • 地图智能更新:自动评估当前感知环境与建图时刻环境的变化,多车联动,实现地图可靠、智能的自动升级。

机器人导航与定位

机械臂引导技术

  • 吸点抓点选取技术: 结合图像和深度信息,预测场景中的可吸取点或可抓取点。该技术准确度高且对各种机械臂场景泛化性好。
  • 密集物体实例分割技术: 针对机械臂拣选场景做的实例分割技术。不同于传统的检测分割,该技术对物体密集堆积,大量遮挡的场景更加鲁棒。
  • 通用箱子检测技术: 可检测出图像中各种箱子的位置,适用于机械臂的拆码垛场景。 该技术泛化性好,可简单迁移至各种场景。

视频结构化

行为检测

  • 实现近百种行人属性和动作的高精度识别,如:性别、发型、帽子、服装颜色、服装类型、拿包、骑车、打伞、年龄、体态、眼镜、鞋、头盔等。
  • 实现奔跑、跌倒等动作识别。
  • 通过少量样本,即可在10分钟内新增一种属性。

目标检测

  • 利用深度学习技术,自主学习各类场景中不同类型的字符符号检测,及特征缺陷定向识别等。
  • 对视觉范围内的不同类别、位置的对象进行定位和分类,可计算目标物体各部位的尺寸,包括长度、宽度、角度、半径、面积及曲率等信息。

核心AI生产力平台

机器人导航与定位

利用视觉和激光等多传感器融合,智能重建环境三维信息、实现自身运动估计并在此基础上实现高效柔性的自主路径规划与避障。

视频结构化

视频结构化,即视频数据的结构化处理,就是通过对原始视频进行智能分析,提取出关键信息,并进行文本的语义描述

提供算法的训练、推理和部署能力;具备算力的共享、调度和分布式能力;拥有全面的 数据 处理、管理和安全能力。

SLAM 建图与定位技术

  • 高精到点:自然环境导航,构建高精特征地图,实现±1cm全程平均定位精度和±5mm的高精重复到点。
  • 视觉-激光融合:融合视觉、激光等多传感器的新一代 SLAM 技术,智能过滤动态物体,实现传统激光SLAM无法达到的动态环境适应性。
  • 重定位:基于深度学习的视觉场景识别技术,随时随地开机、重启,无需人为干预。
  • 地图智能更新:自动评估当前感知环境与建图时刻环境的变化,多车联动,实现地图可靠、智能的自动升级。

机器人导航与定位

机械臂引导技术

  • 吸点抓点选取技术: 结合图像和深度信息,预测场景中的可吸取点或可抓取点。该技术准确度高且对各种机械臂场景泛化性好。
  • 密集物体实例分割技术: 针对机械臂拣选场景做的实例分割技术。不同于传统的检测分割,该技术对物体密集堆积,大量遮挡的场景更加鲁棒。
  • 通用箱子检测技术: 可检测出图像中各种箱子的位置,适用于机械臂的拆码垛场景。 该技术泛化性好,可简单迁移至各种场景。

视频结构化

行为检测

  • 实现近百种行人属性和动作的高精度识别,如:性别、发型、帽子、服装颜色、服装类型、拿包、骑车、打伞、年龄、体态、眼镜、鞋、头盔等。
  • 实现奔跑、跌倒等动作识别。
  • 通过少量样本,即可在10分钟内新增一种属性。

目标检测

  • 利用深度学习技术,自主学习各类场景中不同类型的字符符号检测,及特征缺陷定向识别等。
  • 对视觉范围内的不同类别、位置的对象进行定位和分类,可计算目标物体各部位的尺寸,包括长度、宽度、角度、半径、面积及曲率等信息。

OMAX/Maxiem/GlobalMax 水刀

  • OMAX目前在全球63个国家,有近万台精密水切割设备在不同的领域上使用,包括:航空航天,机械加工,造船,汽车制造,半导体,矿山,建筑业,能源,科研/教育机构及其它领域。

  • 灵活: 无材料限制,金属,非金属,复合材料,叠层材料,玻璃,陶瓷和石材…

  • 切割速度快,在切割厚板(>15mm)时甚至快于激光

  • 切割质量 – 无热效应区

  • 无细小裂缝;减少二次加工

  • 节省时间和成本

  • 一机多用,快速设置