Hace 5 meses | Por jelzimoñac a elpais.com
Publicado hace 5 meses por jelzimoñac a elpais.com

Google, Meta y OpenAI han anunciado en los últimos días distintas medidas para que sea más fácil identificar imágenes o archivos que han sido producidos o retocados con inteligencia artificial (IA). Estas iniciativas se enmarcan en el temor a que la difusión indiscriminada de mensajes falsos condicione los resultados de elecciones o tenga otras consecuencias inesperadas. Las tres compañías ya habían anunciado que tratarán de impedir el uso de la IA en los procesos electorales de 2024. Tras años de invertir miles de millones de euros en mejorar

Comentarios

Tieso

Y el día que identifiquen además los creados con inteligencia... la panacea.

pingON

¿van a incluir el código que sustituye a los programadores que despidan?

M

#3 solo habla de imagenes.

Al copilot todavía le falta mucho.

Ludovicio

#4 Al copilot le falta mucho hoy. Piensa en lo que le "faltaba" hace 5-10 años y extrapola a lo que hará dentro de 5-10 años.

e

Osea ellos podran decidir que es cierto y que no... en unas elecciones... un plan sin fisuras.

jdhorux

Y sí me las descargo, las retoco, las maqueto y le pongo cositas lo van a averiguar? Y sí imprimo???