Hace 7 meses | Por nomeves a noticias.ai
Publicado hace 7 meses por nomeves a noticias.ai

En el mundo de la Inteligencia Artificial (IA), la llegada de la Inteligencia Artificial General (AGI) representa un hito tan anhelado como controvertido. AGI, a diferencia de las IAs específicas para tareas concretas, se refiere a una inteligencia artificial capaz de comprender, aprender y aplicar su inteligencia en un espectro amplio y generalizado, similar al de la inteligencia humana. Este avance podría cambiar radicalmente nuestra sociedad, economía y tecnología.

Comentarios

sorrillo

#15 Veo que he acertado con lo del alma.

Es lo que crees le falta a la máquina para poder hacer lo que hacen los humanos, un concepto inventado sin ninguna correspondencia física que tiene mágicamente el ser humano y las máquinas no tienen por que así lo has decidido.

No es posible prescindir de los instintos, porque son muchos, la gran mayoría imprescindibles para vivir, y el resto como mínimo útiles en muchas circunstancias. Sin los instintos la mente no funcionaría. Son las instrucciones o software de la mente. ¿Cómo sabe un cerebro que es un ser humano? Porque tiene esos instintos.

Un cerebro no necesita saber que es un ser humano para operar. Le basta con reaccionar a los estímulos que recibe y aprender de ello, correlacionar las causas con las consecuencias.

Pero es preciso observar que una máquina no tiene nada de eso.

Una IA es capaz de reaccionar a los estímulos que recibe y con una fase posterior de entrenamiento aprender de ello, correlacionar las causas con las consecuencias.

El único ejemplo que remotamente se me ocurre son las tres leyes de la robótica, y eso es ficción.

Las tres leyes de la robótica es un concepto completamente incomprendido. Isaac Asimov presentó esas leyes de la robótica para acto seguido dedicar su bibliografía a ejemplificar por qué no funcionan. La mayoría de la gente se quedó con el planteamiento inicial y no comprendieron el objetivo de su planteamiento.

Si a una persona le explican las leyes de la robótica y le dicen que debe actuar en base a ellas no diríamos que esa persona está limitada por las leyes de la robótica, diríamos que ha decidido respetarlas de la misma forma que al minuto siguiente puede cambiar de opinión y no respetarlas. En las IA actuales viene a ser lo mismo, no existe ningún espacio para programarle de forma algorítmica ninguna norma de ese tipo, sí se le puede explicar qué son y se le puede pedir que las respete pero eso no implica que esté limitado por ellas, simplemente que puede decidir respetarlas en ciertas circunstancias y momentos como puede en un momento dado decidir no respetarlas. Por que no son leyes que formen parte de su programación si no que son conceptos, ideas, aprendidas en su proceso de educación, de entrenamiento.

Luego estamos enormemente lejos de que una máquina pueda tener nada remotamente parecido. No siglos sino más, creo yo.

Tus premisas no tienen ningún fundamento, tampoco tus conclusiones ni tus profecías. No solo pueden no faltar siglos sino que pueden haber pasado ya semanas o meses desde que ha ocurrido lo que tú no quieres reconocer.

El día que vea replicar la mente de una mosca, algo ahora imposible, me haré una cierta idea de cuanto puede faltar para hacer lo mismo con un humano.

Muéstrame una mosca que sea capaz de programar código tras pedírselo en lenguaje natural en cualesquiera de los cientos de idiomas que hablamos los humanos. La IA actual le da mil vueltas a una mosca en ese aspecto y muchísimos otros.

No sucederá durante mi vida, lo de la mosca.

Ni el suicidio inmediato te permitiría tener razón, lo siento, demasiado tarde.

m

#17 Es lo que crees le falta a la máquina para poder hacer lo que hacen los humanos, un concepto inventado sin ninguna correspondencia física que tiene mágicamente el ser humano y las máquinas no tienen por que así lo has decidido.

https://en.wikipedia.org/wiki/Evolutionary_psychology

sorrillo

#21 No entiendo qué pretendes decirnos con ese enlace. A las IA se las entrena mediante un proceso de selección equiparable a la selección natural en la que sobreviven las más adaptadas al medio, las que dan respuestas más acorde con lo que esperan de ellas los humanos que las evalúan. El proceso de psicología evolutiva podría darse perfectamente en ese escenario que describo.

El ser humano tiene una generación nueva cada aproximadamente 20 años, en una IA esa nueva generación se produce en milisegundos, por lo que es concebible que las características que el ser humano ha adquirido durante su evolución durante cientos de miles de años, contando también antes del homo sapiens, en una IA entrenada se podría reducir a un tiempo de horas.

A todo ello ciertas características psicológicas del ser humano se transmiten a nivel cultural, en el caso de la IA la entrenamos con el fruto de esa cultura humana, le educamos con todo el bagaje de psicología evolutiva transmitida culturalmente por la humanidad.

rojo_separatista

#23, justamente hoy me he encontrado un tuit Andrej Karpathy en el que comenta que el día en que tengamos una AGI perfectamente funcional entre nosotros mucha gente seguirá discutiendo de "por qué no se le puede llamar inteligencia". Visto, lo visto me apuesto lo que sea a que así será por muy irrefutables que sean las pruebas. Igual que s Darwin le costó que aceptasen que no somos en esencia distinto a un chimpancé, habrá gente a la que le costará asumir que lo que llamamos inteligencia se puede reducir a una combinación de sencillas operaciones matemáticas.

rojo_separatista

#10, pues opino como tú, creo que la definición de lo que es y que no una AGI es demasiado abstracta y no va a ser un hito como la llegada del hombre a la Luna, sino que será algo gradual y que si llega lo hará poco a poco, cuando lleguemos a tener una no nos daremos cuenta hasta al cabo de un tiempo, de hecho creo que los modelos actuales son un pasito en esta dirección.

Pero si te interesa el tema desde una perspectiva académica y empírica, esta charla creo que está muy bien.

k

#11 gracias por el video! Aunque veo que está basado en un paper con el mismo nombre que se llevó un montón de críticas por mala ciencia y decidir cosas arbitrariamente. Vamos, que había mucho de proyectar deseos de que hubiera Sparks of AGI en ChatGPT e interpretar cosas que no tienen por que ser.

No quiero ser tostona ni venir a vender libros, pero Emily Bender ha escrito críticas a este paper que me parecen muy bien expuestas. Como que nuestros cerebros no pueden dejar de asignar sentido a un texto, por mucho que sepamos que solo son un montón de letras juntas.

Por lo demás si, creo que será una cosa más progresiva y gradual y nada del tipo un LLM que de pronto se despierta super poderosa. Ojala lo veamos y que sea de provecho.

rojo_separatista

#19, creo que el experimento del unicornio es bastante interesante y sirve para replantearse cosas sobre los modelos internos que son capaces de construir estos modelos, no he leído ninguna contra-argumentación a este experimento que me haga replantear lo que señalan los investigadores.

Por ahí he encontrado un tuit de Andrej Karpathy, otro de los genios de nuestro tiempo que me parece muy divertido y con el que coincido dastante. Viene a decir que cuando tengamos una AGI perfectamente funcional entre nosotros, no cesarán las voces que se sigan cuestionando que no razona, que no piensa, que es sólo una multiplicación de matrices... Oviamente el lo comenta en tono irónico, en referencia a lo que ya ocurre hoy de que a cada avance de la IA mucha gente sigue moviendo la portería e insistiendo que no es para tanto.

frankiegth

#0. De "camino hacia lo desconocido" nada de nada. Internet también vino para "democratizar" el planeta entero y ya solo falta que prohiban las páginas web personales para cerrar el círculo en el que un puñado de multinacionales la acaparen entera y su uso solo sea posible pasando por las condiciones y filtros que esas mismas multinacionales impongan. Con la "Inteligencia Artificial General" ocurrirá lo mismo, si acaba siendo "demasiado buena" para el mundo acabará restringida de una y mil formas.

manbobi

SPAM de Medios y Redes.

m

AGI, a diferencia de las IAs específicas para tareas concretas, se refiere a una inteligencia artificial capaz de comprender, aprender y aplicar su inteligencia en un espectro amplio y generalizado

Nadie sabe como llegar a eso ni pronto ni tarde. La mejor previsión que es posible hacer es que eso requerirá de una tecnología que ahora mismo no podemos imaginar.

Es más wishful thinking que realidad. Tener en cuenta que muchos humanos no llegan a tanto.

Fernando_x

#2 no estoy de acuerdo. Mira por ejemplo los avances actuales, hace cinco años ni se podía imaginar tener ías capaces de hacer lo que hacen hoy en día. Dale otros cinco años. La AGI no tiene nada de mágico y especial.

m

#6 La AGI no tiene nada de mágico y especial.

Lo que tiene es mucho misterio. No vas a poder construir algo que no sabes definir.

sorrillo

#2 requerirá de una tecnología que ahora mismo no podemos imaginar.

Necesitamos crear tecnología que replique el alma.

m

#7 ¿el alma? Primero habría que definirlo. Yo tengo una definición, la antigua.

El alma es la capacidad de pensar independientemente de los propios instintos. Esto tiene muchos nombres, como el famoso "conócete a ti mismo", y muchos más.
Luego la religión se apropió de la palabra para usarla para no decir nada. Pero de eso se puede prescindir.

No es posible prescindir de los instintos, porque son muchos, la gran mayoría imprescindibles para vivir, y el resto como mínimo útiles en muchas circunstancias. Sin los instintos la mente no funcionaría. Son las instrucciones o software de la mente. ¿Cómo sabe un cerebro que es un ser humano? Porque tiene esos instintos.

Pero es preciso observar que una máquina no tiene nada de eso. El único ejemplo que remotamente se me ocurre son las tres leyes de la robótica, y eso es ficción.

Luego estamos enormemente lejos de que una máquina pueda tener nada remotamente parecido. No siglos sino más, creo yo. El día que vea replicar la mente de una mosca, algo ahora imposible, me haré una cierta idea de cuanto puede faltar para hacer lo mismo con un humano. No sucederá durante mi vida, lo de la mosca.

pedrobotero

#2 con los avances que se publican de las diferentes IAs en los meses y los que no sabemos como para decir eso...

m

#8 Lo he visto. Desde que que apareció ChatGPT con su capacidad de intermediar varios textos (sin comprender lo que es una palabra, ya ni digamos un concepto), han aparecido nuevos creyentes en la IA que suponen que ese progreso "alucinante" va a continuar hacia el infinito y más allá a velocidad hiperlumínica. Por supuesto sin haberse mirado como funcionan por dentro.

Lo que yo le he leido a uno de los que han hecho ChatGPT es que la cosa no se puede optimizar mucho más.

Lo de los nuevos "avances impresionantes" "que ponen en peligro a la humanidad" me suena mucho al cuento anterior de que la competencia se detenga (mientras yo sigo avanzando) con la excusa X (o ya deberíamos pasar a la Y después de lo de twitter).

Las pruebas que he hecho con estos generadores de texto, intentando darles algún trabajo útil, han sido muy decepcionantes. Cierto que Bing puede usarse para hacer alguna búsqueda SENCILLA, pero casi es más fácil hacerlo como siempre, que es lo que sigo hacendo cuando acabo de jugar.
Aquí no hay nada impresionante. Muy bonitos los resultados si fueran creibles, pero eso no se puede saber y ni la propia IA lo sabe.

Pero los creyentes ahí están, apelando a falacias de autoridad y contando historias de SciFi, pero de SciFi dura. A mi no, por favor, que me leí todas las historias de robots de Asimov. No me conteis cuentos malos cuando ya me leí los buenos.

rojo_separatista

#2, esto es mentira tal y como lo planteas. Entre los expertos no hay un consenso claro sobre cuan lejos o cerca estamos de ello. De hecho no son pocas las voces que dicen que es cuestión de años, ya no décadas llegar a ello. Podría citarte a Demis Hassabis, Geoffrey Hinton o Yoshua Bengio, que hablan de esta posibilidad, auténticos genios en la materia y que tienen este planteamiento. Y tu vienes aquí a pontificar que estamos lejísimos porque patatas con la tecnología. Perdona pero esto solo tiene un nombre y es cuñadear.

k

#9 me sumo al cuñadeo y pregunto, con palillo en boca: el que no haya un consenso claro, ¿no puede ser un síntoma en que no consiguen definir, o ponerse de acuerdo, en cuál es el objetivo a alcanzar?

Cuando no se sabe ni siquiera la clase de conceptos, ni cuan concretos o abstractos, van a representarse internamente por esa supuesta IA general, me cuesta mucho creer que estemos ni remotamente cerca.

Los supuestos genios en la materia deben aportar ejemplos de representaciones internas, como un log de razonamiento ejecutado, o de comprensión, o algo asi, que los no-genios podamos entender. Como no se quien dijo: afirmaciones extraordinarias requieren pruebas extraordinarias.

m

#10 Por lo menos aportar un modelo teórico, ni que sea dibujado en una servilleta de papel, pero es que no existe ni eso. No hay NADA.

Ya ni hablemos de la tecnología para implementarlo.

Humo.

rojo_separatista

#13, gente que sabe un millón de veces más que tú y que yo de lo que habla:

- El jefe de Google DeepMind pronostica que una IA tan potente como el cerebro humano podría llegar en los próximos años
https://www.businessinsider.es/jefe-google-deepmind-predice-ia-equiparable-ser-humano-1239732

- Yosua Bengio: Since I had been working for over two years on a new approach to train large neural networks that could potentially bridge the system 2 gap, it started to dawn on me that my previous estimates of when human-level AI would be reached needed to be radically changed. Instead of decades to centuries, I now see it as 5 to 20 years with 90% confidence.
https://yoshuabengio.org/2023/08/12/personal-and-psychological-dimensions-of-ai-researchers-confronting-ai-catastrophic-risks/

- Geoffrey Hinton: I now predict 5 to 20 years but without much confidence. We live in very uncertain times. It's possible that I am totally wrong about digital intelligence overtaking us. Nobody really knows which is why we should worry now.

m

#18 Te tragas cada cuento que es impresionante.

Cualquiera puede hacer previsiones estúpidas.

Dentro de veinte años tendremos la fusión nuclear (dicho hace cuarenta años)

Dentro de diez años habrá conducción autonoma (dicho hace veinte años)

Todo eso dicho por otros fantasmas que saben taaaanto, pero taaaaaantooooo y eso que son cosas mucho más concretas y factibles que lo de la inteligencia general, algo sobre lo que ahora mismo no existe nada, e insisto NAAADAAA DEEE NAAADAAAA , ni la más mínima sospecha de como sería.

Deberías ser capaz de entender que lo que están haciendo esos es inventarse bulos para conseguir financiación, o para que suban precios de acciones. Evidente que los que tiene algo de cultura no van a picar ahí, pero puede que otros sí, entonces los primeros se aprovechan de los segundos. Qué añoranza la burbuja punto com.

rojo_separatista

#20, no paras de demostrar que habla desde el cuñadeo. Ahora resulta que Geoffrey Hinton, inventor del algoritmo de backpropagation y a sus 78 años se dedica a inventar bulos para conseguir financiación. La verdad que no cuadra mucho esto con el hecho de que hace menos de un año haya dimitido de su cargo en Google con un sueldo anual seguramente superior a lo que tu y yo ganaremos durante toda la vida porque dice que está preocupado por los peligros asociados al desarrollo de la IA.

Geoffrey Hinton, el 'padrino de la IA', abandona Google y advierte de los riesgos para la humanidad
https://www.elmundo.es/tecnologia/2023/05/02/644ff85cfc6c83335d8b458e.html

m

#9 Entre los expertos no hay un consenso claro sobre cuan lejos o cerca estamos de ello.

Pero por el amor de dios, eso no tiene ni la más mínima credibilidad.

s

#2 Esto ya está empezando a ocurrir al integrar el resto de AIs (generativas de imágenes, de música, código, la de wolfram matemática) conectadas directamente con GPT sin necesidad de que te enseñe prompts ni nada sino comunicación con ellas cada vez más directa. El paso siguiente es bastante sencillo, en lugar que GPT pase un prompt internamente a Dall-e y este genere con el mismo el espacio de difusión estable y a partir de ahí se genere la imagen pues que pase directamente el espacio de difusión y no parece tan difícil porque las AI están generando su espacio de difusión propio leyendo actividad neuronal de humanos. El siguiente es que con ellos genere una simulación total de su realidad un "espacio de trabajo" (Raymond (Ray) Kurzweil) y sobre este módulos de IA aprendan a prestar atención a las cosas que destacan que no se entienden que no se controlen y estas pasen a ser espacios de difusión para los demás módulos. Esta era una hoja de ruta pero no parece ya difícil sino cada vez parece más accesible y más fácil de lo que se pensaba. Parece, al final puede que sea rematadamente difícil.

Por otra parte se trabaja en procesadores neuromórficos con memristores y neuristores y el análisis del cerebro del gusano de la fruta ha revelado que utiliza los tramsformers empleando una neurona y un astrocito (una célula de la glía) trabajo completo de 12 duros años... De ello se ha llevado a ideas de como ser implementados físicamente en chips neuromórificos y están saliendo ideas de como hacer todos esos procesos por vía re computación óptica fotónica en buena parte

thorin

#_2 ¿Para qué crees que se van a usar las IAs específicas para tareas concretas?

#3 como todo primero porno y guerra , después lo demás