Siemens introduit Xbox Kinect dans la salle d’opération

. © Istock

A l’avenir, un chirurgien pourra, lors d’une opération, non seulement alterner les radiographies de son patient par de simples mouvements de la main et du bras, mais aussi y effectuer un zoom avant sur des détails et faire tourner des images en trois dimensions. Des techniciens de Siemens Healthcare et de la division de recherche mondiale Corporate Technology ont pour ce faire adapté la technologie Kinect de la console Xbox de Microsoft.

A l’avenir, un chirurgien pourra, lors d’une opération, non seulement alterner les radiographies de son patient par de simples mouvements de la main et du bras, mais aussi y effectuer un zoom avant sur des détails et faire tourner des images en trois dimensions. Des techniciens de Siemens Healthcare et de la division de recherche mondiale Corporate Technology ont pour ce faire adapté la technologie Kinect de la console Xbox de Microsoft.

Jusqu’à présent, il était malaisé pour un chirurgien de commander des moniteurs, du fait que pour éviter tout risque d’infection, seuls les instruments opératoires pouvaient être touchés et aucun autre objet. Le nouveau système, qui n’est pas encore disponible, permet d’afficher sur les moniteurs dans la salle d’opération les radiographies de la coupe transversale du corps du patient ou des radiographies en trois dimensions. Le chirurgien peut alors passer d’une radio à l’autre au moyen de mouvements de la main et du bras.

Kinect

A la base du système, l’on retrouve le concept Kinect de la console de jeu Xbox de Microsoft. La source infrarouge du système Kinect illumine l’environnement d’un modèle ponctuel de lumière infrarouge, qui est lu sous un autre angle par une caméra. Les objets tridimensionnels ou les personnes déforment le modèle lu, ce qui permet de calculer la distance entre la source lumineuse et un point déterminé de l’image de la caméra. A partir de ces nuages de points tridimensionnels, le logiciel est capable d’identifier les personnes dans l’espace et de reconnaître leurs mouvements.

Ce système original n’est cependant pas destiné à convertir des mouvements manuels précis et lents en commandes exactes. Voilà en partie pourquoi les techniciens de Corporate Technology ont mis au point des algorithmes qui détectent d’abord les mains du chirurgien dans le nuage de points. Les algorithmes analysent uniquement la zone qui se trouve devant les utilisateurs individuels, donc là où les mains de celui/celle qui commande le système, se trouvent logiquement. Une fois les mains détectées, le système enregistre alors leurs mouvements sans être dérangé par la présence d’autres personnes dans le même espace.

Définir les commandes

Les techniciens de Siemens Healthcare ont ensuite développé le couplage reliant la reconnaissance des mouvements et l’affichage des radiographies. Ils ont pour ce faire défini les commandes requises, comme l’extension des mains pour agrandir une partie de l’image. Dès que les tests sur des prototypes seront réussis, la technologie sera expérimentée dans deux hôpitaux, mais pas encore sur des patients.

En collaboration avec Computable

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire