Jetson Nano引脚图
本来想在jetson nano上跑一个live2d,但是live2d官方编译好的链接库对于linux只有x86_64的版本,我又没找到怎么重新编译,然后就想到也许live2d在windows的电脑上跑然后和jetson nano主控进行一个交互也许更有意思(例如点击什么的会有灯光特效)就有点像对于一个桌宠有了灯光外设
现在的方案是,主控全部使用Jetson Nano,虽然因为机箱的拓展板把所有Jetson Nano的IO口都占了,所以有关检测光照强度的任务就不使用光照传感器了,直接使用opencv检测光照强度,虽然不精准,但是在大的范围,比如说在实验室测试的开关灯,还是可以大致检测出来的。
然后就是用QT写界面,现在已经有了一个大致的带滑动转换界面的一个Demo,可以魔改
然后人与桌面距离检测的方案就是,AI部分使用Jetson Inferenced的人体关键点检测(主要用到的就是人脸关键点和肩膀位置的关键点),精准距离检测方案就是假设人的眼距是大致相同的(取一个标准值),然后根据鼻子到脖子中间拉的一条线的斜率得出人体相对摄像头的旋转角度,计算出这个旋转角度下人的平面眼距的绝对值,然后和图片里的眼距长度对比,从而判断出人距离摄像头的距离,