#1 Creo que esa afirmación es incorrecta. Cierto que las emociones harían la IA mucho más impredecible o más vehemente. Pero solo con que tenga el incentivo de "no morir" y deduzca que "los humanos controlan mi vida", no veo tan difícil que un sistema se revelara solo con eso si tiene una ventana de contexto lo suficientemente amplia.
#1 Que se rebele es uno de los riesgos, no es el único.
Precisamente la falta de emociones, la falta de empatía, podría ser otro de los riesgos, por ejemplo se le puede indicar que resuelva el cambio climático y que la IA lo haga exterminando a todos los seres humanos al identificarlos como los mayores causantes de ello.
#1 ¿Y que pasará si no puedes pagar por usar la ias?. Centralizar en manos de unos pocos el conocimiento es de borricos, por no hablar de la brecha cognitiva que va a suponer en unos años, miedito me dais...
#4 O porque dudan que pueda ser peor que lo que ya tenemos.
Así consiguió llegar al parlamento de Brasil el payaso Tiririca. Su lema era “vóteme, peor no va a estar”.
#4 hace unos años estaría 100% de acuerdo, pero al trump le eligieron por segunda vez y el partido del alvise tiene representación en el europarlamento... tengo claro que un % difícil de cuantificar de esos que lo han dicho, lo dirán en serio