Hace 1 año | Por rojo_separatist... a xataka.com
Publicado hace 1 año por rojo_separatista a xataka.com

El CEO de DeeMind participó esta semana en el evento 'Future of Everything Festival' organizado por The Wall Street Journal, y allí explicó que "el progreso en los últimos años ha sido bastante increíble. No veo ninguna razón por la que ese progreso vaya a ralentizarse. Creo que incluso puede acelerarse. Así que creo que podríamos estar a sólo unos pocos años [de la aparición de una AGI], tal vez dentro de una década de distancia".

Comentarios

M

#7 "Pero en la mayoría de dominios donde la IA tiene potencial para implantarse las cosas no son así, hay cierto márgen de tolerancia"

Pero es que no es eso lo que dice este CEO, este lo que dice es que la IA va a tener la capacidad de comprender (cosa que no hace ahora), el que desde ya tenga aplicaciones prácticas, como tú afirmas, es indudable, pero no tiene nada que ver con lo que afirma.

"Comúnmente conocida por su acrónimo AGI (Artificial General Intelligence), se refiere a una forma de IA que tiene la capacidad de comprender y realizar una amplia variedad de tareas intelectuales similares a las que pueden realizar los seres humanos. No es una IA especializada, sino que es capaz de resolver problemas en una amplia de domnios cognitivos y de adaptarse a nuevas situaciones de manera flexible y creativa."

Esa inteligencia o comprende y se adapta o no lo hace, lo mismo que la conducción autónoma total.

rojo_separatista

#11, no tengo tan claro que una AGI no vaya a equivocarse nunca. ¿Se equivocan los seres humanos? Sí. ¿Significa esto que no comprenden nada? No. No entiendo porque algunos usan doble vara de medir a la hora de evaluar las capacidades potenciales de la IA.

M

#13 Nadie ha dicho nada de no equivocarse, tan sólo de comprender y adaptarse como hacemos los humanos, y bien que nos equivocamos a pesar de todo.

Eso que tú dices, tener aplicaciones prácticas, ya lo hacen las IAs, no tendría sentido afirmar que lo van a hacer en un futuro cercano.

La IA que dice este CEO que se va a alcanzar es una que comprende, se adapta e incluso podría ser creativa, no sólo memoriza y relaciona lo memorizado como las de ahora (y, a veces, esas relaciones no las hacen bien porque en realidad no entienden nada de lo que están relacionando sólo que hay relación).

rojo_separatista

#14, según tú, que test debería superar una IA para demostrar que comprende, que actualmente superan todos los seres humanos y ninguna IA es capaz de superar?

c

#15 Cuando en lugar de simplemente dar respuestas haga preguntas de forma espontánea podremos empezar a preocuparnos.

rojo_separatista

#16, creo que tienes una visión demasiado antropocéntrica del mundo que trasladas a la IA. ¿La pregunta es, para qué queremos esto?

Las IAs, incluida la AGI, son una herramienta para resolver problemas para los que se requiere inteligencia y capacidad de comprensión. Algo en lo que estamos avanzando muy rapidamente.

c

#18 creo que tienes una visión demasiado antropocéntrica del mundo que trasladas a la IA

No. No se trata de "visión antropocéntrica", se trata de inteligencia.

Las IAs, incluida la AGI, son una herramienta para resolver problemas para los que se requiere inteligencia y capacidad de comprensión.
Coincido en que son una herramienta y que son capaces de analizar y "conprender" lenguaje.

Respecto a la "inteligencia", pues depende de lo que entendamos por inteligencia.

Un sistema que no se haga preguntas de modo espontáneo no es inteligente. Solo es una herramienta que reacciona a unas entradas según la hemos programado.
La inteligencia no está en la herramienta, si no en sus creadores

rojo_separatista

#28, obviamente entendemos cosas muy diferentes. Tu mezclas conciencia, curiosidad e inteligencia en un totum revolutum. Para mí, son cosas completamente distintas.

c

#29 No lo son. Sin curiosidad no hay inteligencia, y sin conciencia no hay voluntad que es un complemento imprescindible para la misma.

Sin eso, simplemente es una herramienta que hace exactamente y únicamente lo que se le ha programado que haga. Por versátil que sea.
La inteligencia no está en la herramienta, si no en sus creadores. No es la herramienta la que resuelve problemas, si no personas utilizando la herramienta, por sofisticada que sea la herramienta.

rojo_separatista

#30, entonces no se que palabra o concepto usarás para medir la capacidad de resolver problemas, como jugar al ajedrez, poder identificar tumores en imágenes médicas, escribir artículos académicos o hablar sobre la cosmovisión aristotélica del mundo.

M

#15 Dudo mucho que ni este CEO lo sepa, y eso que él afirma que estamos a puntito de alcanzarlas.

¿Qué demuestra que una persona "comprende"? Por ejemplo, si te suelto una adivinanza: "oro parece plata no es, ¿qué es?", pues lo mismo no lo adivinas, pero si te digo que es el plátano y luego te digo "por un caminito va caminando un bicho que ya te lo he dicho" es muy posible que hayas comprendido que hay truco y esta vez sí la adivines sin necesidad de que nunca te hayan dado la solución. Las IAs actuales acertarán la adivinanza si la han memorizado y fallarán si no, nunca van a pillar el truco porque no comprenden la información, sólo la memorizan añadiendo relaciones entre esos datos y eso no es suficiente, hace falta mucho, mucho más.

rojo_separatista

#17, pues hay que pensar en nuevas adivinanzas con las que no se hayan entrenado que sepan resolver todos los humanos y todas las IAs sean incapaces de resolver. Lo importante es plasmar esto en una prueba evaluable objetivamente, para poder demostrar de forma empírica la tesis de que los humanos comprenden y las IAs no. De lo contrario nos estamos limitando a filosofar, pero esto no es una actitud ni científica, ni materialista.

M

#19 De momento el que no comprenden es bastante evidente, cuando no lo sea habrá que preocuparse por encontrarla, mientras es vender la piel del oso antes de cazarlo.

Aunque lo mismo este CEO también está a puntito de sacarla

rojo_separatista

#21, me puedes poner un ejemplo para que lo pueda comprobar? Es que yo te podría poner infinidad de ejemplos que refutan la idea de que no comprende como que es capaz de escribir un poema sobre las tortillas de espárragos que nadie ha escrito jamás o que puede aprobar un examen de bachillerato de matemáticas del año pasado con ejercicios que nunca vió ya que se entrenó en 2021, demostrando que sabe aplicar lo que aprendió a problemas completamente nuevos.

Es que sino toda esta discusión me está recordando a la que tuve con una amiga evangelista que me dijo que lo que ella creía lo sentía dentro pero no lo podía explicar con palabras. Al final, todo se reducirá a una cuestión de fe.

M

#23 Ya, lo de inventarse textos lo hace bastante bien: coge las palabras que le has pasado, tortilla y espárragos, busca palabras e información relacionadas y escribe un texto con cierta lógica con eso. Pero le estás pidiendo hacer justamente lo que le han entrenado para hacer.

Introduce un texto utilizando el su Código ASCII, el Código ASCII lo conoce, pero no relaciona los códigos con su carácter. O sustituyendo todas las vocales por la misma, tampoco.

Si le preguntas por cualquier cosa te dará información que tiene memorizado como relacionada con eso que le has pedido, pero meter algunas de esas relaciones puede ser un error, por ejemplo, si le preguntas como funciona la Bolsa del SAS (Servicio Andaluz de Salud) te mezcla la información de la bolsa con la de las oposiciones del SAS, porque ambas están muy relacionadas, pero el resultado es información errónea, por muy relacionadas que estén son cosas distintas, no se pueden mezclar, eso no lo entiende, si está muy relacionado lo mete

D

#24 chatGTP 4 o 3.5 ?. También existen otras como bing chat que igual funciona mejor

rojo_separatista

#24, a veces se equivoca y a veces acierta, en eso estamos de acuerdo. Pero también lo hacen los seres humanos. Y no porque un ser humano no sepa responderte como sistema el Servicio Andaluz de Salud dirás que no comprende nada de nada. Pues con la IA lo mismo, hay que ir hacia métodos de evaluación objetivos, medibles y comparables. Los seres humanos también memorizamos y cuando aplicamos correctamente algo que hemos memorizado a un nuevo problema se dice que somos inteligentes y hemos comprendido que hacer. No veo por qué con un modelo se deba utilizar una forma de medir distinta. Repito, aprueba exámenes con los que no se ha entrenado.

M

#26 Tienes al CEO de una gran empresa dedicada a las IAs diciendo que las IAs actuales no comprenden, pero que si todo va viento en popa a toda vela (cosa que nunca ocurre) podrán hacerlo dentro de 10 años.

¿A él tampoco le crees?

rojo_separatista

#32, te equivocas, sí que comprenden. De lo contrario no podrían resolver ejercicios de física que no han visto jamás, comprender no solo es memorizar, sino saber aplicar lo que has memorizado a problemas completamente nuevos.

M

#4 Lo mismo se puede decir de la conducción autónoma, de pronto pasamos de 0 a conducción autónoma nivel II, se desató la locura, las predicciones de conducción autónoma total para mañana... y ahí nos hemos quedado

Algunos, como Musk, llevan varios años, Musk concretamente desde 2015, diciendo que en un año o dos tendrían la conducción autónoma definitiva y hasta ahora nada de nada, y lo que nos queda.

El objetivo de todo no hay que ser un genio: atraer inversores (y clientes), y una vez atraídos hay que seguir el rollo con el este año sí que sí hasta ver si hay suerte.

Que puede ser que ocurra y puede ser que no. Ni este tipo ni nadie lo sabe, pero su objetivo es el que es.

eltoloco

Puro humo de un CEO que tiene claros intereses en hacer esta declaración para atraer inversores, como dice #5

La realidad es que esta afirmación tiene tanta credibilidad como cuando decían en los años 60 que para el año 2000 (Número redondo, que queda muy bonito) ibamos a tener energía ilimitada gracias a la fusión nuclear. Estamos en 2023 y siguen diciendo que nos quedan 50 años para tenerla.

La IAG ni siquiera está definida teóricamente, por lo tanto es absurdo decir que vamos a tener una IAG para dentro de 10 años si ni siquiera hemos definido lo que es. Igual por ello este señor trata de engañar a la gente, intentando hacer pasar una IA compleja muntimodelo por una IAG, cuando no tienen nada que ver. Es como cuando los defensores de la nuclear nos hablan de las maravillas de los próximos reactores de fisión de 4ª generación, supuestamente baratos, limpios e incluso pequeños y portátiles, como si por ello fuesemos a tener pronto la fusión. Peras y manzanas. ¿Que tendremos IAs multimodelo complejas muy pronto? Sin ninguna duda. Pero esto no tiene nada que ver con la IAG.

oliver7

#10 y esa tecnología dentro de una sexy doll y se acabó Tinder, First Dates y la copulación estándar. lol

D

#20 esto se hará nivel neuronal , nada de chismes mecánicos, AI ya puede interpretar en imágenes la actividad cerebral, solo es cuestión de tiempo que sea capaz de recrear imágenes en el cerebro, https://www.smithsonianmag.com/smart-news/this-ai-used-brain-scans-to-recreate-images-people-saw-180981768/

sotillo

#1 Hombreee viendo como aumenta el nivel de estupidez humano digo yo que solo quedan unos flecos con los que arroparte

powernergia

Cada vez tengo más claro que en un balance de pros y contras, no sale ni lejanamente positivo.

Los ciudadanos no nos vamos a beneficiar de esto, y las empresas entrarán en una batalla de costes que arrasará con la mitad de ellas (y con sus trabajadores, claro).

rojo_separatista

#6, efectivamente, el capitalismo tiene la virtud de convertir en problemas algunas cosas que deberían ser beneficiosas para el conjunto de la sociedad.

oliver7

#6 pues como sociedad tendríamos lo que nos merecemos si no sabemos luchar por nuestros derechos.

P

El CEO acaba de ser sustituido por una IA , a la que no consigue sustituir es a la señora de la limpieza ;

Tal vez su valor añadido a la empresa es mayor .

N

#2 Se sustituyen trabajadores, no CEOs. Quién se va a hacer millonario entonces?