4. 活动二:传感器——机器人如何感知和理解
活动二:传感器——机器人如何感知和理解
传感器允许人工智能驱动的机器人感知自然世界。在这项活动中,学生将研究机器人系统中常用的传感器。然后他们将检查该班的人工智能机器人,以识别其传感器和能力。
1 .一个AI驱动的机器人利用传感器感知周围的世界。分发一个图形组织者或让每个学生创建一个表来支持他们对机器人传感器的研究。图形组织者应该包括三个主题:传感器的名称、传感器感知到的数据,以及一个AI驱动的机器人可能如何使用这些数据。使用拼图教学策略,为每个个体或小群体分配一个或多个独特的机器人传感器,如激光雷达、接触或触摸传感器或气压计。让学生研究他们指定的传感器并将他们的发现记录在他们的桌子上。例如,超声波传感器利用反射的高频声波来测量距离目标的距离。这个传感器的数据可以被一个由人工智能驱动的机器人用来确定一个物体在它前面经过,以及物体离它有多远。一旦学生完成研究,让他们向全班汇报调查结果。他们还应该把从其他学生的陈述中获得的信息添加到自己的表格中。活动结束后,所有学生都将了解所研究的每个传感器的信息。
2 .接下来,让学生完成一个机器人寻宝任务,检查他们在课堂上使用的人工智能机器人平台的硬件、软件和文档,并识别可用的传感器。针对每一个传感器,让学生识别传感器的名称、传感器采集的数据,以及这些数据是如何被机器人表示出来供用户查看的。例如,"机器人车祖密"的桌子可能是这样的:
Sensor | Data | Data Representation For the User |
Pi Camera | Visual data. The computer processes it as pixels but displays it in the form of images and video. | Saved on the computer (Raspberry Pi Zero board) as a .jpg file and can be opened in any image file application. |
Gyroscope | Rotational motion (how much it is turning) as numeric angles for the x, y, and z axis. | Use update_angles() function to get angles for x, y, and z axis. Angle values range from 1 to 360. |
Accelerometer | Acceleration values for each axis to find Zumi’s orientation with respect to the strongest force being applied to Zumi (gravity). | Use get_orientation() function to get orientation state value: –1 = unknown 0 = probably falling or moving between states |
1 = camera straight up | ||
2 = camera facing down | ||
3 = on right side | ||
4 = on left side | ||
5 = wheels on floor | ||
6 = wheels facing up (upside down) | ||
7 = accelerating faster than 1g | ||
6 IR Sensors | Distance values to a target using reflecting infrared light waves. Sensors are in the front right, bottom right, back right, bottom left, back left, and front left. | Use get_IR_data() function to get one of the 6 sensor values which range from a value between 0 and 255. |
传感器 | 数据 | 数据代表用户 |
Pi摄像头 | 可视化数据。计算机将其作为像素处理,但以图像和视频的形式显示。 | 保存在计算机上( 树莓 Pi零板 )作为. jpg文件,可以在任何图像文件应用程序中打开。 |
加速度计 | 每个轴的加速度值,以找到Zumi相对于施加在Zumi (重力)上的最强力的方向。 | 利用get _ Direction ( )函数得到朝向状态值: -1 =未知 0 =很可能掉落或在状态间移动 1 =摄像机直上 2 =摄像机朝下 3 =右侧 4 =左侧 5 =地板上车轮 6 =车轮朝上(朝下) 7 =加速比1g快 |
6 Ir传感器 | 使用反射红外光波到目标的距离值。传感器位于右前方、右下方、右后方、左下方、左后方和左前方。 | 使用get _ IR _ data ( )函数获取6个传感器值中的一个值,该值范围从0到255之间。 |
3 .当学生完成这些活动时,他们可能会注意到有不同类型的传感器完成相同的任务,例如检测机器人到物体的距离。问问学生为什么认为有不同类型的传感器用于完成相同的任务。可能的答案是:许多不同的传感器被用来收集相同的数据,以创建一个冗余系统并提高精度。当数据从多个来源采集时,更加可靠。不要假设超声波传感器是读取一个精确的距离,可以将该值与红外( IR )传感器进行比较,以保证其准确性。改变条件(如天气)也会影响传感器的某些值。测量冗余度越大,系统越可靠。有些传感器也对数据进行了不同的测量。激光雷达和摄像机都可以探测物体。激光雷达可以看到某物离它有多远,它的一般形状,但不能看到像颜色等更精细的细节和其他二维细节。摄像机可以看到物体的一般形状和所有更细的细节( 颜色 ,书写等 ),但不知道物体的距离有多远。像自动驾驶汽车这样的机器人系统将这两种传感器结合起来,为目标检测创造了更好的系统。人工智能将多个传感器的感知融合为一个模型的能力称为传感器融合。
4 .最后,让学生选择机器人的传感器之一,并描述一种方法,感知的数据可以用来完成与人工智能的任务。可能的答案:人工智能可以与相机的图像数据一起用来检测物体,并确定这些物体之间的差异;例如,它可以区分行人、骑自行车者和道路上的其他汽车。