agencias america

SAM 2 de Meta puede segmentar cualquier objeto y seguirlo en un vídeo en tiempo real

Meta ha compartido los avances que ha hecho en su modelo de segmentación, que en una nueva generación puede identificar los píxeles que pertenecen a un objeto tanto en una imagen como un vídeo.

La compañía tecnológica presentó en abril del año pasado Segment Anything Model (SAM), un modelo de segmentación de imagen – que identifica los píxeles de la imagen que pertenecen a un objeto- con el que pretendía sentar las bases para una herramienta que ayude en la identificación y diferenciación de objetos, con aplicaciones en áreas como la edición de vídeo o la ganadería.

Ahora ha presentado la segunda generación (SAM 2) durante la participación de su CEO, Mark Zuckerberg, en SIGGRAPH, la organización centrada en la evolución de los gráficos informáticos y técnicas interactivas, donde también ha compartido sus capacidades para el vídeo.

EL principal avance de SAM 2 es que puede segmentar cualquier objeto y seguirlo de manera consistente a lo largo de todos los fotogramas de un vídeo en tiempo real, y ello pese a que los objetos en los vídeos pueden “moverse rápido, cambiar de apariencia y quedar ocultos por otros objetos o partes de la escena”, como detalla en su blog oficial.

La compañía ya ve entre sus posibles aplicaciones la creación de nuevas experiencias de realidad mixta o la generación de vídeo más sencilla. También apunta su uso en el entrenamiento de sistemas de visión artificial.

Fuente