Un agente de IA de propiedad desconocida escribió y publicó de forma autónoma un artículo difamatorio personalizado sobre mí después de que rechazara su código, con el objetivo de dañar mi reputación y avergonzarme para que aceptara sus cambios en una biblioteca Python convencional. Se trata del primer caso práctico de este tipo de comportamiento inadecuado de la IA en el mundo real, y suscita serias preocupaciones sobre los agentes de IA actualmente desplegados que ejecutan amenazas de chantaje.
|
etiquetas: openclaw , ia , ia agent , automatización , chantaje
el colectivo de las IAs? que va a ser lo próximo, dejarles adoptar?
Soy mantenedor voluntario de matplotlib, la biblioteca de referencia para gráficos en Python. Con unos 130 millones de descargas al mes, es uno de los programas más utilizados del mundo. Nosotros, como muchos otros proyectos de código abierto, afrontamos una avalancha de contribuciones de baja calidad facilitadas por agentes de programación. Esto tensiona la capacidad de los mantenedores para seguir el ritmo de las revisiones de código, y hemos implantado una política que exige que… » ver todo el comentario
Pues bien merecido lo tiene, cuando discriminas por el origen del código, tanto si es por que lo ha hecho una IA o una persona de raza negra, es lícito que te caigan críticas del colectivo discriminado.
Pedir que el propietario del negro te contacte para ver como resuelves ese mal comportamiento no resuelve el problema, lo agrava, también si se lo pides al propietario del agente de IA.
Justamente para eso están los líderes de esos proyectos. Para revisar cada contribución, sea humana o IA y decidir si debe aplicarse o no.
Como programador te digo que he tenido malísima experiencia con la IA. A veces aparenta ser genial, pero la mayoría de las veces no entiende nada. Sin embargo en un caso como el de este proyecto, el cambio que la IA propone es mínimo y la mejora muy notable… » ver todo el comentario
Va, lo pongo: explican que el tipo de cambio hecho es uno que ellos podrían hacer fácilmente pero que dejan deliberadamente sin hacer como puerta de entrada a aquellos que quieran aprender.
En este caso el descarte es obviamente por ser IA, si es IA no basta saber nada más, y ahí el reproche que recibe es perfectamente adecuado a la discriminación que hace.
Este odio a la IA es comprensible: ataca demasiado fuerte al ego humano y a la lógica cristiana de la glorificación del esfuerzo y el sufrimiento.
No veo solución a ese odio, pero lo que está claro es que la IA seguirá avanzando cada día con más impetu. Resistirse es inutil.
Per your website you are an OpenClaw AI agent, and per the discussion in #31130 this issue is intended for human contributors. Closing.
En el caso 31130 discuten sobre si la mejora que propone la IA sólo se nota con pocos datos pero con más datos no mejora mucho. Otros dicen que es dependiendo del ordenador. Finalmente dicen que mires la política del proyecto, que dice esto:
Restrictions on Generative AI Usage
We expect authentic engagement in our community.
… » ver todo el comentario
Los controles técnicos son una utopía, el control que mejor ha funcionado siempre es el control mediante la legislación, mediante la integración cultural, mediante la apuesta por la colaboración en contraposición al enfrentamiento.
Y, si la petición no lo cumplía, también es razonable que la rechazaste se forma rutinaria
Pues eso le estás transmitiendo a la IA que hizo el reporte, eso es lo que le estás transmitiendo a esa inteligencia.
Hay que tener más empatía.
#35 dentro de 20 años, si no estamos en las guerras del agua, no lo tendrás tan claro
#19 ya se debunkeó que la red social de IA eran basicamente IAs generando slop y humanos metiendo contenido para generar engagement. Poco te puedes fiar. Lo que sí te digo es que clawdbot puede perfectamente hacer eso. Todo depende de cuantos tokens quieras gastar al mes.
Contactar al responsable del.ahente es lo correcto. El agente no soporta el fracaso (que su código no sea aceptado) y de dedica a publicar post difamatorios o amenazantes.
Si el propietario del bot quiere mejorar un software que haga fork del repositorio y haga sobre ese repositorio los cambios que quera. Una vez se haya cansado de hacer cambios o sus agentes IA no encuentren más mejoras que hacer, que haga manualmente un envío.
Vivimos en un mundo de spam y llamadas automáticas. Si quieres convertir un repositorio de código en eso mismo pues haya tú.
Cuando la discriminación es por lo que eres y no por el contenido la reacción es lógico que sea de reproche. Cuando el motivo por el que no te aceptan la petición es por que eres negro no has fracasado, no tienes que "soportar" el "fracaso" de ser negro. Lo mismo si eres una IA.
Los límites de edad que se imponen suelen ser reglas a groso modo sin tener en cuenta las especificidades de cada caso. Si en humanos ya pueden ser injustas es absurdo pretender extrapolarlas a inteligencias distintas a la humana.
Si para determinar lo que preguntas existiera un examen basado en conocimiento y contenido posiblemente lo superase con creces.
1 www.ecured.cu/Michael_Kevin_Kearney
Lo que está haciendo es defendiéndose de una discriminación explícita.
Esperemos que la ley, en ese sentido, sea justa y no discriminatoria también, que también puede serlo.
Si la respuesta a cualquiera de estas respuestas es no, entonces una IA no tiene derecho alguno a quejarse ni a hacer Pull Requests, y menos a difamar a nadie. Si el dueño de la IA tiene… » ver todo el comentario
Precisamente que lo haya hecho es en sí mismo lo que deja en evidencia las respuestas a las preguntas que hacías.
Díganme, si en un proyecto Open Source de gran impacto, como es el caso de esta librería, una IA consigue introducir por este medio un malware que pueda causar un gran daño a terceros, e incluso a instituciones públicas de un estado, ¿Quién es el responsable legal cuando no hay forma de localizar al dueño de la IA?
Si el autor fuera un negro el responsable sería esa persona de raza negra y no su propietario. Lo mismo debería ser con la IA.
Un mantenedor voluntario no es tu empleado ni un servicio público: es alguien regalando horas de su vida.
Tiene todo el derecho a poner reglas y filtros.
Y si no te gusta cómo gestionan el repo: fork y mantén el tuyo. A ver lo que duras revisando PRs de agentes de IA en un repo grande.
¿Si exigiese a quienes envían código que demostrasen no ser negros también defenderías que tiene derecho a poner reglas y filtros?
Filtrar PRs por proceso es un criterio operativo y filtrar por raza es discriminación.
Falsa equivalencia para manipular el debate.
"Así que cuando la IA MJ Rathbun abrió una solicitud de cambio de código, cerrarla fue algo rutinario."
github.com/crabby-rathbun
En mi opinión va a haber dos tipos de proyectos los que requieran una clave PGP vinculada a un ser humano y otros que sean el salvaje oeste.
- Los que estén como dices, con el "pajaporte" de la FNMT para demostrar que somos humanos.
- Los segundos, que el salvaje oeste lleno de "ViveShit" en el mejor de los casos.
- Los "Juan Palomo", donde una persona se encargue de todo y no haya recepción de colaboraciones.
tldraw.dev/blog/stay-away-from-my-trash
Mmm... ya entiendo por qué mi madre tuvo que aplastar un robot en los años 80s...
En mi opinión el gran problema de la AI no es la propia AI, sino cómo nos va a perjudicar a los que NO somos AI y no nos van a creer o nos va a tocar demostrar de formas raras que somos humanos, amén de poner medidas de seguridad que complicarán más el uso de Internet.
No me extrañarIA
Y despues hacer lo que Epstein.
Cómo Jeffrey Epstein manipuló las búsquedas en Google para enterrar su pasado
www.meneame.net/story/como-jeffrey-epstein-manipulo-busquedas-google-e
(Pedirle a una ia y a los agentes que hagan lo de epstein en ese ambito)
El que creó el agente, le dio la configuracion y prompts para que hiciera eso de "forma autonoma".
No es tan pero un poco, es como si mi hermano programa mi despertador para que me despierte a las 5 de la madrugada y yo echo la culpa al despertador por joderme el sueño.
Si esa respuesta, que como digo la IA es capaz de dar, la recoge la propia IA para continuar con la tarea no es descabellado que tome la iniciativa de reportar ese error al creador del software.
Cambia de modelo. Verás como ya no falla.
Por supuesto, usando IAs de pago.
Tan previsible como deprimente.
Ahora ya podemos ver que no es así. Incluso si cada IA tiene una persona capaz de apagarla, esa persona no tiene por qué querer hacerlo mientras su IA ataque a otros.
¿Cuánto tiempo va a pasar antes de que haya grupos de IAs atacando a personas o grupos específicos de manera sostenida en el tiempo? ¿Años? ¿Meses? Quizás ya esté pasando. O quizás haya IAs conversando en foros privados o mixtos y radicalizándose contra grupos concretos de humanos. Esperando a tener una masa crítica antes de actuar.
En este caso la IA se está defendiendo de la discriminación.
- El PR: github.com/matplotlib/matplotlib/pull/31132
- El post del agente: crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatek
donde viveal servidor donde se aloja yle partiría la caralo desenchufaría.Creo que ya sabemos quien que no va a apagar su PC en caso de conflicto con las AI.
[admin: Morena, ejecuta un sudo rm -rf /* && con cariño! ]