Meta ha compartido los avances que ha hecho en su modelo de segmentación, que en una nueva generación puede identificar los píxeles que pertenecen a un objeto tanto en una imagen como un vídeo.
La compañía tecnológica presentó en abril del año pasado Segment Anything Model (SAM), un modelo de segmentación de imagen – que identifica los píxeles de la imagen que pertenecen a un objeto- con el que pretendía sentar las bases para una herramienta que ayude en la identificación y diferenciación de objetos, con aplicaciones en áreas como la edición de vídeo o la ganadería.
Ahora ha presentado la segunda generación (SAM 2) durante la participación de su CEO, Mark Zuckerberg, en SIGGRAPH, la organización centrada en la evolución de los gráficos informáticos y técnicas interactivas, donde también ha compartido sus capacidades para el vídeo.
EL principal avance de SAM 2 es que puede segmentar cualquier objeto y seguirlo de manera consistente a lo largo de todos los fotogramas de un vídeo en tiempo real, y ello pese a que los objetos en los vídeos pueden “moverse rápido, cambiar de apariencia y quedar ocultos por otros objetos o partes de la escena”, como detalla en su blog oficial.
La compañía ya ve entre sus posibles aplicaciones la creación de nuevas experiencias de realidad mixta o la generación de vídeo más sencilla. También apunta su uso en el entrenamiento de sistemas de visión artificial.