Hace 4 horas | Por JungSpinoza a ai.meta.com
Publicado hace 4 horas por JungSpinoza a ai.meta.com

Hoy anunciamos el Meta Segment Anything Model 2 (SAM 2), la próxima generación del Meta Segment Anything Model, que ahora admite la segmentación de objetos en videos e imágenes. Estamos lanzando SAM 2 bajo una licencia Apache 2.0, para que cualquiera pueda usarlo para crear sus propias experiencias. También estamos compartiendo SA-V, el conjunto de datos que usamos para crear SAM 2 bajo una licencia CC BY 4.0 y lanzando una experiencia de demostración basada en la web donde todos pueden probar una versión de nuestro modelo en acción.

Comentarios

JungSpinoza

Para quien quiera probar la demo:

https://sam2.metademolab.com/

ElBeaver

me gusta

JungSpinoza

#3 Esto simplifica la edición video e imagenes muchisimo.

Por suerte o desgracia, lo veremos proximamente en IG y TikTok

ElBeaver

#5 un pasito más hacia la irrelevancia de las técnicas clásicas

Modelo mas alla de los segmentos de lo que sea.

En inglés quedará de puta madre pero en castellano es como decir que a la moto se le ha desquiciado la junta de la trócola.

JungSpinoza

#2 Lo he dejado asi para no editar el titular original. Si te fijas en el titular "Segment Anything Model" esta en mayusculas y el acrónimo es SAM incluyendo la M. Por lo que deduzco que es el nombre del producto.

Queda feo en español? Si, pero si queremos respetar el titular original entonces se tiene que quedar en ingles.