Dos peleas tengo con esto de la inteligencia artificial, una normal, y otra que no me lo parece tanto, así que aprovecho para comentarlas aquí, a ver si entre todos arrojamos un poco de luz sobre este abismo.
En primer lugar, la IA no es Google, ni una base de datos enorme, ni es cierto que sólo pueda devolver respuestas que alguien le ha aportado previamente. Esa manera de pensar nos lleva a infravalorar su impacto y es muy peligrosa. Es cierto que la inteligencia artificial se entrena con montañas de datos, pero se trata de eso, de un entrenamiento, para que sea capaz de dar sus propias respuestas COMBINANDO esa información mediante una serie de patrones, no devolviendo fragmentos a petición del usuario, como hace una base de datos. De hecho, así es como se entrena, se forma, o crece también una inteligencia natural: el niño ve cosas, absorbe información, aprende patrones, y a medida que crece, es capaz de devolver respuestas combinando con sus propios patrones la información previamente recibida. Por eso, cuando se deja la memoria a un lado, la inteligencia se resiente, digan lo que digan los enemigos de la enseñanza memorística. Las respuestas propias vienen de lo que está dentro, no de lo que está fuera, por muy disponible que se halle.
En segundo lugar, la inteligencia artificial no es un ordenador ni una calculadora. No da respuestas exactas. Si esperamos que no se equivoque, o que no alucine, entonces no estaremos ante una inteligencia, porque las inteligencias, todas, se equivocan y alucinan. Cuando decimos que los resultados de programación, por ejemplo, salidos de un IA tienen que ser supervisados, estamos soltando una obviedad como un pino, porque todo lo que procede de una inteligencia tiene que ser supervisado. Lo que procede de una calculadora no necesita supervisión, porque se trata de una máquina determinista, cuyo nivel de error es absolutamente despreciable. ¿Cuatas veces hay que escribir 174 X 179 en una calculadora para que nos ofrezca dos resultados diferentes? Por supuesto que podría suceder, por muchas razones, pero no vale la pena intentar controlar un error que se produce una de cada cientos de millones de veces.
En el caso de la Inteligencia artificial, estamos ante un mecanismo que, precisamente por inteligente, es probabilístico, y lo único que sucede es que está aún en la infancia: comete muchos errores, se inventa muchas cosas, y necesita una supervisión constante. No sabemos hasta dónde puede crecer, pero seguirá siendo siempre un mecanismo probabilístico, y necesitará supervisión como los programadores humanos, como los médicos humanos, como los jueces humanos, y como cualquier inteligencia de las que circulan por ahí. Si esperamos que sea infalible o que no invente cosas, es porque no buscamos un inteligencia artificial, sino a una especie de dios milagrero.Y no, no estamos creando a Dios. Esta vez no.
sorrillo
ur_quan_master
alcama
Gry