• Uncategorized
  • 0

Universal Robots Vision Based Stacker

[Thomas Kølbæk Jspersen] e i suoi compagni di classe presso il robot visione del robot di Aalborg University ha utilizzato il codice Matlab e URScript per programmare un robot universale UR5 per impilare i mattoni Duplo. I mattoni duplo sono impilati in caratteri di simpson low-fi – giallo per la testa di Omero, bianco per la maglietta, e blu per i suoi pantaloni, per esempio.

I mattoni sono sparsi casualmente su un tavolo vicino, mentre una videocamera montata sopra la tabella scansisce i mattoni e aiuta a identificare la posizione, il colore e l’orientamento degli elementi. Ciò comporta l’analisi Blob che aiuta il computer a decidere quale pixel fa parte di un mattone e cosa non lo è. Dopo aver eseguito un algoritmo ricorsivo grassfire con 4-connettività, il computer fornisce ad ogni pixel un numero e lo assegna a un blob.

Per identificare l’orientamento (i mattoni sono tutti presunti per essere sconosciuti e non sovrapposti) il blob è diviso in quadranti e all’interno di ciascun quadrante, viene misurata la distanza tra il centro del blob e il suo pixel più lontano. Questa tecnica non è probabile che funzioni anche con un mattone che non è quadrato. La posizione di ogni mattone in pixel è tradotta in coordinate cartesiane, rendendola un cinch per il robot per prenderlo. Vedi [Thomas] GitHub per il codice MATLAB e URScript.

Alla ricerca di molti altri progetti UR5? Dai un’occhiata al robot per la produzione di indumenti Sewbo, abbiamo pubblicato l’anno scorso.

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *