Hoy anunciamos el Meta Segment Anything Model 2 (SAM 2), la próxima generación del Meta Segment Anything Model, que ahora admite la segmentación de objetos en videos e imágenes. Estamos lanzando SAM 2 bajo una licencia Apache 2.0, para que cualquiera pueda usarlo para crear sus propias experiencias. También estamos compartiendo SA-V, el conjunto de datos que usamos para crear SAM 2 bajo una licencia CC BY 4.0 y lanzando una experiencia de demostración basada en la web donde todos pueden probar una versión de nuestro modelo en acción.
Comentarios
Para quien quiera probar la demo:
https://sam2.metademolab.com/
me gusta
#3 Esto simplifica la edición video e imagenes muchisimo.
Por suerte o desgracia, lo veremos proximamente en IG y TikTok
#5 un pasito más hacia la irrelevancia de las técnicas clásicas
Modelo mas alla de los segmentos de lo que sea.
En inglés quedará de puta madre pero en castellano es como decir que a la moto se le ha desquiciado la junta de la trócola.
#2 Lo he dejado asi para no editar el titular original. Si te fijas en el titular "Segment Anything Model" esta en mayusculas y el acrónimo es SAM incluyendo la M. Por lo que deduzco que es el nombre del producto.
Queda feo en español? Si, pero si queremos respetar el titular original entonces se tiene que quedar en ingles.