• 免费好用的星瞳AI云服务上线!简单标注,云端训练,支持OpenMV H7和OpenMV H7 Plus。可以替代edge impulse。 https://forum.singtown.com/topic/9519
  • 我们只解决官方正版的OpenMV的问题(STM32),其他的分支有很多兼容问题,我们无法解决。
  • 如果有产品硬件故障问题,比如无法开机,论坛很难解决。可以直接找售后维修
  • 发帖子之前,请确认看过所有的视频教程,https://singtown.com/learn/ 和所有的上手教程http://book.openmv.cc/
  • 每一个新的提问,单独发一个新帖子
  • 帖子需要目的,你要做什么?
  • 如果涉及代码,需要报错提示全部代码文本,请注意不要贴代码图片
  • 必看:玩转星瞳论坛了解一下图片上传,代码格式等问题。
  • 续之前edge impulse 训练结果与实际在线不一致问题的改进,效果不好。



    • 感谢您之前的回复,按照您的建议,有变化的部分在图像中占比不宜太小,故做了调整,采集时候的代码:
      原来的:sensor.set_pixformat(sensor.RGB565)
      sensor.set_framesize(sensor.QVGA)

      改为了:sensor.set_pixformat(sensor.RGB565)
      sensor.set_framesize(sensor.VGA)
      sensor.set_windowing((100,100))
      这样一来,有无胶在视野中变化很大,但是依然不行,请看👇
      0_1635245200590_edge impulse 结果完美.png
      0_1635245215053_在线测试结果.png

      是不是不能改dataset_capture_py里面的代码?
      为什么dataset_capture_py里默认是QVGA
      但是edge impulse生成的ei_classification里就自动变成了QVGA的(240,240)?



    • 你的数据集的数量是多少?无胶的照片是什么?



    • 神经网络会自动缩放图片然后分类,所以QVGA是没问题的。



    • 0_1635245784436_无胶.png
      无胶照片这样的。

      您的意思是不是ei里面的分辨率最好不要改??



    • 看上去区别很明显的。
      先来一个边缘滤波。
      https://book.openmv.cc/example/04-Image-Filters/edge-filter.html

      然后用统计信息,应该可以直接分类出来了,(不用神经网络),就是边缘的像素的数量大于多少来判断。

      如果要用神经网络也可以,要不同角度,不同位置,不同数量的采集多张。

      另外,如果能靠灯光,来让胶更明显,是非常有用的。



    • 举个例子,如果光从侧面照过来,就会出现非常明显的阴影,就可以把有胶和无胶分清。



    • 谢谢,光源我早已买好红色、绿色,马上开始推进实验