• 免费好用的星瞳AI云服务上线!简单标注,云端训练,支持OpenMV H7和OpenMV H7 Plus。可以替代edge impulse。 https://forum.singtown.com/topic/9519
  • 我们只解决官方正版的OpenMV的问题(STM32),其他的分支有很多兼容问题,我们无法解决。
  • 如果有产品硬件故障问题,比如无法开机,论坛很难解决。可以直接找售后维修
  • 发帖子之前,请确认看过所有的视频教程,https://singtown.com/learn/ 和所有的上手教程http://book.openmv.cc/
  • 每一个新的提问,单独发一个新帖子
  • 帖子需要目的,你要做什么?
  • 如果涉及代码,需要报错提示全部代码文本,请注意不要贴代码图片
  • 必看:玩转星瞳论坛了解一下图片上传,代码格式等问题。
  • 只运行人脸识别代码识别效果很好,但运行人脸追踪云台的代码发现识别效果差,但是这两段代码识别人脸代码是相同的,是为什么?



    • #为什么只运行人脸识别代码识别效果很好,但运行人脸追踪云台的代码发现识别效果差,能够明显看到识别到的人脸矩形框断断续续,很多时候识别不到,但是这两段代码识别人脸代码是相同的,这是什么原因?
      
      
      # 人脸识别例程
      #
      # 这个例子展示了OpenMV Cam的内置人脸检测功能。
      #
      # 人脸检测通过在图像上使用Haar Cascade特征检测器来工作。 haar级联是
      # 一系列简单的区域对比检查。 对于内置的前表面探测器,有25个阶段的检查,
      # 每个阶段有数百个检查一块。 Haar Cascades运行速度很快,因为只有在
      # 以前的阶段过去后才会评估后期阶段。 此外,您的OpenMV使用称为
      # 整体图像的数据结构来在恒定时间内快速执行每个区域对比度检查
      #(特征检测仅为灰度的原因是因为整体图像的空间需求)。
      
      import sensor, time, image
      
      # 重置感光元件
      sensor.reset()
      
      # 感光元件设置
      sensor.set_contrast(3)
      sensor.set_gainceiling(16)
      # HQVGA and GRAYSCALE are the best for face tracking.
      # HQVGA和灰度对于人脸识别效果最好
      sensor.set_framesize(sensor.HQVGA)
      sensor.set_pixformat(sensor.GRAYSCALE)
      #注意人脸识别只能用灰度图哦
      
      sensor.set_vflip(True)
      
      # 加载Haar算子
      # 默认情况下,这将使用所有阶段,更低的satges更快,但不太准确。
      face_cascade = image.HaarCascade("frontalface", stages=25)
      #image.HaarCascade(path, stages=Auto)加载一个haar模型。haar模型是二进制文件,
      #这个模型如果是自定义的,则引号内为模型文件的路径;也可以使用内置的haar模型,
      #比如“frontalface” 人脸模型或者“eye”人眼模型。
      #stages值未传入时使用默认的stages。stages值设置的小一些可以加速匹配,但会降低准确率。
      print(face_cascade)
      
      # FPS clock
      clock = time.clock()
      
      while (True):
          clock.tick()
      
          # 拍摄一张照片
          img = sensor.snapshot()
      
          # Find objects.
          # Note: Lower scale factor scales-down the image more and detects smaller objects.
          # Higher threshold results in a higher detection rate, with more false positives.
          objects = img.find_features(face_cascade, threshold=0.75, scale=1.35)
          #image.find_features(cascade, threshold=0.5, scale=1.5),thresholds越大,
          #匹配速度越快,错误率也会上升。scale可以缩放被匹配特征的大小。
      
          #在找到的目标上画框,标记出来
          for r in objects:
              img.draw_rectangle(r)
      
          # 打印FPS。
          # 注:实际FPS更高,流FB使它更慢。
          print(clock.fps())
      
      
      #人脸追踪云台代码
      
      import sensor, image, time
      
      from pid import PID
      from pyb import Servo
      
      pan_servo=Servo(1)
      tilt_servo=Servo(2)
      
      pan_servo.calibration(500,2500,500)
      tilt_servo.calibration(500,1500,500)
      
      pan_servo.angle(10)
      tilt_servo.angle(50)
      pan_pid = PID(p=0.05, i=0, imax=90) #脱机运行或者禁用图像传输,使用这个PID
      tilt_pid = PID(p=0.01, i=0, imax=90) #脱机运行或者禁用图像传输,使用这个PID
      #pan_pid = PID(p=0.1, i=0, imax=90)#在线调试使用这个PID
      #tilt_pid = PID(p=0.1, i=0, imax=90)#在线调试使用这个PID
      
      sensor.set_contrast(3)
      sensor.set_gainceiling(16)
      sensor.set_vflip(True)
      
      sensor.reset() # Initialize the camera sensor.
      sensor.set_pixformat(sensor.GRAYSCALE) # use RGB565.
      sensor.set_framesize(sensor.WVGA) # use QQVGA for speed.
      sensor.skip_frames(10) # Let new settings take affect.
      sensor.set_auto_whitebal(False) # turn this off.
      sensor.set_vflip(True)
      
      clock = time.clock() # Tracks FPS.
      
      face_cascade = image.HaarCascade("frontalface", stages=25)
      
      def find_max(blobs):
          max_size=0
          for blob in blobs:
              if blob[2]*blob[3] > max_size:
                  max_blob=blob
                  max_size = blob[2]*blob[3]
          return max_blob
      
      
      while(True):
          clock.tick() # Track elapsed milliseconds between snapshots().
          img = sensor.snapshot() # Take a picture and return the image.
      
          blobs = img.find_features(face_cascade, threshold=0.75, scale=1.5)#返回外接矩形框
          # 一个矩形元组(x, y, w, h)x-左上角的x位置 y-左上角的y位置 w-宽度 h-高度,也可以索引[0][1][2][3]取得这个值。
          if blobs:
              max_blob = find_max(blobs)
              pan_error = max_blob[0]+max_blob[2]/2-img.width()/2
              tilt_error = max_blob[1]+max_blob[3]/2-img.height()/2
      
              print("pan_error: ", pan_error)
              print("tilt_error: ", tilt_error)
      
              img.draw_rectangle(max_blob) # rect
              img.draw_cross(int(max_blob[0]+max_blob[2]/2), int(max_blob[1]+max_blob[3]/2)) # cx, cy
      
              pan_output=pan_pid.get_pid(pan_error,1)/2
              tilt_output=tilt_pid.get_pid(tilt_error,1)
              print("pan_output",pan_output)
              pan_servo.angle(pan_servo.angle()+pan_output)
              tilt_servo.angle(tilt_servo.angle()-tilt_output)
      
      
      
      


    • 你说的效果好不好,是怎么判断的?如果代码一样,那么效果就是一样的。

      或者是云台运动导致摄像头的画面变了。



    • 1.就是摄像头识别不出人脸,但是只用人脸识别的代码无论脸在哪都能识别,在人脸移动的时候也能看到一直能够识别出人脸,这两个的效果差异很明显,
      2.我看他是识别到人脸云台才会运动,但现在就是识别不出人脸



    • 我更新了一下代码。

      sensor.set_contrast(3)
      sensor.set_gainceiling(16)
      

      这两句还是很重要的。

      https://github.com/SingTown/OpenMV-Pan-Tilt/blob/master/pan-tilt/src/find_face.py