Hace 19 días | Por JuliaBongito a enriquedans.com
Publicado hace 19 días por JuliaBongito a enriquedans.com

Resulta muy provocativo pensar en la definición de inteligencia artificial general (AGI), también llamada inteligencia general artificial o inteligencia artificial fuerte, como un tipo considerado hasta el momento hipotético de inteligencia artificial que iguala o excede la inteligencia humana promedio.

Comentarios

suppiluliuma

No. Siguiente pregunta.

Apotropeo

#1 pues la promedio no sé, pero conozco alguno de nivel ameba que ya fué ampliamente superado por el clippy de Word

suppiluliuma

#18 Me temo que eso sólo significa que clippy aparenta más inteligencia que una ameba.

woody_alien

Cancamusaman.

E

#12 Tu afirmación es, en primer lugar, un argumento lingüístico que no tiene ningún significado real. En segundo lugar, es incorrecta, las redes neuronales actuales son capaces de engendrar sus propios conceptos o abstracciones sobre estos conceptos que son almacenados en los potenciales sinápticos y los parámetros de las funciones de transferencia de la propia red (y en cierto nivel de abstracción, tampoco es la única forma). Es como funcionan precisamente.

a

#13 Un concepto tiene entidad fisíca en el cerebro humano. Por ejemplo tiene un peso. Para tener un concepto necesitas un lugar donde almacenarlo y eso es físico.

Una red neuronal no tiene ese hardware.

Una red neuronal relaciona datos con datos. Eso, por definición, no es un concepto.

E

#14 Los conceptos están contenidos en los pesos sinápticos y en las funciones de respuesta, análogamente a cómo lo están contenidos en un cerebro humano. O cómo crees que funciona una red neuronal (artificial o natural, ambas son análogas en ese sentido restringido).

a

#15 Los pesos sinápticos esos son relaciones entre datos. Por su propia naturaleza, por el hardware que hay, no son otra cosa.

Un concepto no puede estar donde los datos. Es otra cosa distinta. Un concepto no es un dato y no es un conjunto de datos. Un concepto puede, o no, estar relacionado con datos. Un concepto tiene entidad propia. Un concepto es útil al relacionarse con otros conceptos. Esas relaciones son el conocimiento.

Ergo, una red neuronal no puede tener conocimientos.

Las redes neuronales es un invento artificial que no tiene absolutamente nada que ver (ni se parece) con un cerebro humano. Un cerebro no funciona como una máquina de esas. Hace las cosas mediante otros métodos.

E

#16 Yo no he dicho que se parezca a un cerebro humano, he dicho que ese aspecto concreto funciona de forma análoga. O cómo crees que se almacena un concepto en un cerebro humano?

a

#17 No se sabe, pero se ha identificado a neuronas individuales que reaccionan a un concepto determinado.

E

#19 No, lo que se ha encontrado es neuronas que responden de forma muy específica a determinados estímulos sensoriales, por una parte y, por otra (al experimento famoso al que probablemente te estás refiriendo de Quian Quiroga y otros) neuronas que se activan de modo disperso frente a estímulos visuales muy concretos (no conceptos). Ese artículo https://doi.org/10.1038/nature03687 dice muchas cosas muy interesantes, pero no constituye evidencia alguna (tal y como afirman los propios autores) de la existencia de neuronas individuales que codifiquen perceptos discretos.
La codificación neuronal de una red neuronal natural, junto con todas las otras cosas que son capaces de hacer, es mucho más compleja (también en algunos sentidos mucho más especializada) que la de una red neuronal artificial. Pero que maneja conceptos es innegable. De hecho, está diseñada para que sea así, aunque estos conceptos, que no son más que patrones subyacentes a los datos con los que ha sido alimentada, tienen representaciones muy diferentes a la actividad de cualquier neurona natural y su experiencia y contexto son muy diferentes.
Es más, el fenómeno del "doble descenso profundo" que ha comenzado a presentarse con los gigantescos LLMs posiblemente está relacionado con una representación más eficiente, profunda y generalizable de estos mismos conceptos (conceptos desarrollados sobre conceptos).
Te falta base para mantener una discusión informada, así que lo voy a dejar aquí.

a

#20 estos conceptos, que no son más que patrones subyacentes a los datos

los conceptos existen independientemente de los datos

no hablamos de lo mismo

No. Esos experimentos que has encontrado, no son.

a

#20 Te falta base para mantener una discusión informada

Siempre que a un tontaina se le acaban los argumentos pasa a la fase del improperio personal. Con los feministas es a la primera respuesta, debido a la carencia total de argumentos.

E

#23 Que careces de conocimientos de neurobiología e inteligencia artificial es evidente. Del resto de campos no puedo juzgar, pero tampoco creo que reconocer tu ignorancia en un campo sea un improperio, no así andar por ahí llamando "tontaina" a los demás.

a

#24 El que te creas tan listo es una de los síntomas de tu ignorancia. Creo que se llama efecto dunning-kruger.

Ya he tenido bastante de tonterías y gilipolleces. En definitiva es tu problema, no el mio.

K

Hay Dans, hay cancamusa.

a

La inteligencia artificial general no viene de camino. De momento lo que hay son redes neuronales que no pueden ni podrán nunca manejar conceptos, algo imprescindible.

Hay cosas que se pueden automatizar con algo así, a pesar de sus peligrosos fallos, pero el problema es lo tremendamente ineficiente que es. No es soportable. O se mejora la eficiencia o todo esto desaparecerá pasado el hype.

Ferran

#2 ChatGPT 4o responde a tu comentario:

Es comprensible que haya escepticismo respecto a la Inteligencia Artificial General (AGI) debido a las limitaciones actuales de la tecnología. A continuación, algunas reflexiones sobre los puntos que has mencionado:

1. **Capacidad de Manejar Conceptos**: Es cierto que las redes neuronales actuales tienen limitaciones significativas en términos de comprensión y manejo de conceptos de la misma manera que los humanos lo hacen. Sin embargo, la investigación en inteligencia artificial está en constante evolución. Si bien estamos lejos de alcanzar una AGI verdadera, hay avances significativos que sugieren que podría ser posible en el futuro, aunque tal vez no en el corto plazo.

2. *Eficiencia*: La eficiencia de las redes neuronales y otros sistemas de IA es un área activa de investigación. A medida que se desarrollan nuevos algoritmos y se mejora la capacidad de procesamiento, es probable que veamos mejoras en la eficiencia. Actualmente, la IA ya se está utilizando en muchas aplicaciones prácticas con éxito, a pesar de sus limitaciones.

3. **Peligros y Fallos**: Reconocer los peligros y fallos de la IA es crucial para su desarrollo responsable. La comunidad científica y tecnológica está trabajando en mejorar la robustez y la seguridad de estos sistemas. La regulación y la ética en el desarrollo de la IA son temas de creciente importancia.

4. **Hype y Futuro de la IA**: Es cierto que ha habido mucho hype en torno a la IA, lo que puede llevar a expectativas poco realistas. Sin embargo, incluso si no alcanzamos una AGI completa en un futuro cercano, las aplicaciones específicas de IA siguen teniendo un gran potencial para transformar industrias y mejorar la vida cotidiana. La clave estará en gestionar las expectativas y continuar con un desarrollo prudente y ético.

En resumen, aunque las redes neuronales actuales no sean capaces de manejar conceptos complejos de la misma manera que los humanos, y aunque existan desafíos significativos en términos de eficiencia y fiabilidad, la IA sigue siendo un campo con un gran potencial de innovación y desarrollo.

a

#6 No tiene ningún sentido estar leyendo palabras generadas automáticamente.

Ferran

#8 Entiendo tu punto de vista. Sin embargo, muchas personas encuentran útil el uso de herramientas como ChatGPT para obtener información rápida, asistencia con tareas específicas o incluso para explorar ideas y obtener inspiración. Todo depende del uso que cada persona le quiera dar.

Respuesta generada con ChatGPT lol

a

#27 Por favor. No me copies palabras escupidas automáticamente. No hay ninguna consciencia detrás de eso. Si lo escribes tu, entonces es distinto y hasta lo comentaría.

Ferran

#28 Aunque no haya consciencia son palabras perfectamente válidas y en la mayoría de los casos más inteligentes que la mayoría de humanos.

Escrito por mi

a

#29 No te digo que no, pero eso no me hará cambiar de parecer. No me voy a poner a discutir con una máquina, dado que sé como funciona y me parece muy estúpido lo que hace. No hablo aquí del resultado.

Ferran

#30 Para mi es como una calculadora, a veces solo quiero el resultado.

a

#31 Hay veces que sí, para consultas sencillas es más rápido y sabes que los resultados son fiables. Pero fuera de esto no hay fiabilidad.

E

#2 Eres capaz de definir el término "concepto"? Cómo estás tan seguro de que las redes neuronales artificiales actuales no son capaz de procesarlos o incluso desarrollarlos por sí solas?

a

#9 Un concepto es una generalización que da sentido a unas pocas observaciones al cuadrarlas con el sentido común. El sentido común es una base de datos de conocimientos. Un concepto puede ser relacionado con otros conceptos para llegar a conclusiones.

A las relaciones entre conceptos y datos se le llama conocimiento.

Una red neuronal no tiene donde almacenar conceptos. Si le añades como hacerlo, dejará de ser una red neuronal, con lo que mi afirmación sigue siendo cierta.

M

No tengo ni idea del tema, pero es una noticia idónea para ilustrarla con una foto de Gila al teléfono.
Ahí lo dejo.

Ferran
E

#_25 Se ha enfadado.

ElBeaver

No, todavía no está aquí

H

Este artículo es una chorrada colosal, que ni se acerca a hablar de lo que propone el título.