Hace 4 horas | Por RaulUrdaci a enter.co
Publicado hace 4 horas por RaulUrdaci a enter.co

Durante el Foro de Seguridad de Aspen, se presentó la Coalición para una IA Segura (CoSAI). La creación de CoSAI surge de la necesidad urgente de unificar y estandarizar las prácticas de seguridad en IA. Actualmente, proteger estos sistemas es una tarea dispersa, con desarrolladores enfrentando una variedad de directrices y estándares inconsistentes, lo que complica la evaluación y mitigación de riesgos específicos de la IA, incluso para organizaciones experimentadas.

Comentarios

z

#3 Mirate la regulación de IA que está impulsando la UE y ahí tienes unas cuantas ideas, como limitar con que pueden y con que no entrenar a la IA, que normas deben cumplir para evitar riesgos o limitar el uso de información e identificación biométrica de la gente mediante el uso de IA.

Waskachu

#6 vale ahora voy y me lo miro.

M

#6 A lo que habría que destacar también los inconvenientes o nulas garantías que hemos tenido los ciudadanos en materia de transferencias internacionales de datos, como lo que sucedió tanto con el Puerto Seguro ("Safe Harbour"), con el Escudo de Privacidad ("Privacy Shield") y por lo que seguramente termine sucediendo con el actual Marco de Privacidad de Datos ("Data Privacy Framework").

Prácticamente se ha normalizado la transferencia de datos privados de las personas casi como si de poco sirvieran, todo teniendo conocimiento en el marco del EEE la vulneración que supone este tipo de tráfico de datos. De este modo cuesta creer que algunas webs todavía mantengan cientos y cientos de cookies de rastreo de actividad para fines "publicitarios" del mismo modo que cuesta creer que se sigan vendiendo altavoces con micrófono que escuchan 24h al día o lo que podría resultar a día de hoy más complicado de deshacer, que las personas tengan cámaras y micrófonos junto firmawares y softwares privativos en sus bolsillos.

Google lo ve todo

Hace 7 meses | Por Juanro49 a threadreaderapp.com

Android seguiría espiando a los usuarios incluso cuando se desactivan todas las opciones de rastreo
Hace 2 años | Por bonobo a computerhoy.com

El Asistente de Google te ha estado espiando por «error»
Hace 3 años | Por --525300-- a adslzone.net

Escándalo en Amazon: la empresa reconoce que guarda tus conversaciones para siempre
Hace 5 años | Por --24179-- a elmundo.es


Tampoco ayudan los modelos de analíticas que también transfieren datos a los EE.UU., por mucho que vendan que algunas partes de la IP se pueden cubrir. Depender y depender de las gigantes tecnológicas es el mayor error.

z

En otro engan̈o de las empresas donde quieren aparentar una "autorregulación" para retrasar todo lo posible la intervención de los gobiernos mientras hacen lo que les da la gana.

Waskachu

#2 ¿cómo intervienes esto siendo un gobierno? ¿Qué riesgos ves y qué medidas propones?

M

#3 Lo primero es que dejen de engañar a la gente de una vez. Los gobiernos de todo el mundo ya empiezan mal porque debería utilizar software de licencia pública, visible por todos sus ciudadanos, y no de código privativo. Luego, las compañías tienen la libertad de inventar lo que sea mientras no pongan en riesgo la salud de las personas ni se acabe por dominar el mercado por posición dominante, algo sobre algunas de las cuales forman parte de ese futuro "ecosistema" tienen cierta experiencia.

M

Al loro con los conceptos que el artículo menciona:

"se enfoca en fomentar un entorno colaborativo donde se comparten metodologías, marcos estandarizados y herramientas de código abierto para mejorar la seguridad de la IA"

Que se compartan herramientas de código abierto no equivale a que el resultado quede abierto.

"Entre los principales patrocinadores se encuentran grandes nombres como Google, IBM, Intel, Microsoft, NVIDIA y PayPal, junto con Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI y Wiz"

La crème de la crème (raro que no aparezca Meta).

"Funcionando como una comunidad de código abierto"

Lo cual no garantiza que el resultado sea una IA abierta ni mucho menos libre, como menciono anteriormente.

"surge de la necesidad urgente de unificar y estandarizar las prácticas de seguridad en IA"

¿Con protocolos bajo licencia pública o de propiedad privada?

"CoSAI promete ser un actor clave en la creación de un ecosistema de IA seguro y confiable"

Exacto, "ecosistema" es la clave, algo para lo que no necesites salir de ahí. Algo en que te metas en ciertas compañías de máximo lucro y creas que vives. Además el concepto "confiable" no hace más que salir desde que se promocionaban titulaciones norteamericanas.


Según la RAE:

confiable

1. adj. Dicho de una persona o de una cosa: En la que se puede confiar.


(es decir, de algo en lo que se puede confiar). Resulta que NO, que nada de esto puede generar en absoluto confianza.

PD: El uso de IA no garantiza una vida mejor sino más bien, y desde mi punto de vista, todo lo contrario.

Jesúsc

Cómo para fiarse de esta gentuza.