#4 Es el virus de la gripe aviar y se transmite entre animales en cautividad, como no podía ser de otra forma.
En todo caso esto es un clavo más en el ataúd para la cría de animales para obtener su piel.
#4 Es el virus de la gripe aviar y se transmite entre animales en cautividad, como no podía ser de otra forma.
En todo caso esto es un clavo más en el ataúd para la cría de animales para obtener su piel.
Hotia, ese spray es lo que le faltaba por incorporar a las y los robopilinguis que se avecinan!
Menuda mafia legalizada estos de Manos Limpias
Pues partiendo de que la mujer suele tener más capacidad empática, tiene sentido.
#10 ¿Los médicos tienen capacidad empática? Pocos médicos conoces. Las enfermeras sí.
#10 La gente se toma las medidas de empatía de una forma errónea. La capacidad empática es la medida de respuesta emocional que la persona tiene a algo, algunas veces medida (cambios faciales, etc) y otras directamente la persona responde lo que siente, no tiene ninguna correlación con lo que la persona hace en consecuencia. Puedes tener una persona estoica que tenga una respuesta empática pequeña pero que esa cantidad sea suficiente para que se decida a ayudar, mientras que otra persona puede tener una respuesta empática grande que hasta la haga llorar pero que no sea suficiente como para que decida ayudar.
Dejo por aquí el artículo completo, hay que suscribirse si se entra en la vanguardia pero si se entra desde Google se puede leer entero. Muy recomendable:
https://www.google.com/amp/s/www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.amp.html
#1 muchas gracias por el aporte.
Por si no funciona el enlace de #1 como a mí. Aquí se puede leer
https://archive.ph/2024.03.26-192852/https://www.lavanguardia.com/internacional/20240323/9580539/guerra-gaza-israel-palestina-opinion.html
Cáncer hasta en el agua del grifo. Me pregunto si con la de los pozos ocurrirá lo mismo, aunque en cualquier caso seguro que de los micro plásticos no se libra
#3 Mira los enlaces de #1. Igual que los microplásticos ya están en todas partes.
#4 A partir del año que viene van a intentar reducir su concentración en el agua del grifo.
El año pasado hubo una propuesta de la UE para prohibir el uso de más de 10.000 químicos permanentes pero creo que al final se rajaron.
#3 La verdad que no me queda claro, es lioso como está redactada la noticia. Yo he terminado entiendo que son 14.000 por los casi 6 meses de trabajo, aunque luego dice por 10 horas, en fin...
Paga 14.000 euros por 10 horas de trabajo a un artista que utiliza IA
Malec reveló que su compañía le ha pagado 14.000 euros por cada uno de los meses de trabajo
...asegura que cuentan con un artista principal que es capaz de crear más de 1.000 imágenes con IA en apenas seis meses. Por ello, Malec reveló que su compañía le ha pagado 14.000
¿El artista que ha trabajado, 5 minutos al día, el tiempo de poner un prompt?
En cualquier caso, eso son 2000€ y pico bruto al mes, lo que viene a ser un sueldo más o menos decente en los tiempos que corren si vives en una ciudad grande. Pues ala, ya estamos viendo cómo la IA empieza reemplazar puestos de trabajo...
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
¿Qué te hace humano? Sacar un juego a medio hacer, repleto de fallos y mal diseñado por las prisas de coger pasta.
Si, aún sigo traumatizado con lo que hicieron esta gente. Fui de los que lo compraron día 1 en PS4
#6 "errare humanum est", al final lo arreglaron bastante y jugarlo ha sido entretenido.
#7 Arreglaron fallos graves, pero muchos diseños de niveles son de risa, la enorme ciudad está muerta quitando las bandas que están ubicadas para ventilarlas, por no hablar de las físicas, los coches...pff ni me lo terminé después de que lo arreglasen. Una pena porque me flipa la temática, para mí CDProjectRed ha perdido mucha confianza.
Menos mal que cuando me comí la estafa de esta gente, tenía pendiente el Deus Ex Mankind Divided, que con sus limitaciones, está muchísimo mejor llevado y me lo pasé genial.
Veo granjas de tardígrados en 3...2...1...
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#128 Prueba pedirle a chatgpt que te dibuje lo que se te ocurra en código ASCII, y ponlo a prueba. Yo lo hice con un gato y un coche, y le hacía cambiar de perspectiva también, y se manejaba muy bien, y nadie le ha preparado para eso. Por lo que si entiende el concepto.
#127 la memoria a la que me refería es a una subjetiva, con experiencia propia, no una base de datos o indexación.
#136 #135 Eso depende...de hecho recuerdo que era más a menos a partir de los 7 años cuando un niño empieza a razonar, al menos eso leí recientemente, y eso me extraña porque he visto a niños de menos de 7 años tener comportamientos o dar respuestas que yo entendería como razonar.
En todo caso, puede que sean preguntas sesgadas, no estaría mal que detallaras a qué te refieres. Por ejempo, yo leí un artículo críticando que una IA no entendía que la muerte era "permanente", pero es absurdo, porque una IA jamás experimenta la muerte, solo es algo que sabe de oidas, lo que ella pueda entender por lógica, no tiene nada que ver con ello.
#135 La 'memoria' que dices es lo que se logra con el 'entrenamiento'. Es lo que han aprendido y ha configurado el modelo de esa forma. Por eso, no es 'conocimiento', ni es 'consciente', ni 'entiende nada'. Simplemente devuelve resultados como una calculadora a la que le metes 2+2. La cosa es que como lo hace con algo más complejo como es el lenguaje parece más de lo que es.
#120 No no los entienden. Solo procesan.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
#141 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como decir que las neuronas biológicas tiene una estrutura determinada y se unen entre ellas a través de las dentritas formando sinapsis.
De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
¿Cuánto necesita un ser humano de entrenamiento para caminar, leer, escribir y hablar en condiciones?
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria
Bueno, nos guste o no, es una cuestión que está ahí. Y si existe, entonces cambia el asunto.
#168 hombre, no, lo mismo que el aprendizaje humano no es, no tenemos a miles de humanos picando información en nuestro cerebro
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#3 Quizá nunca lo sabremos
#11 al menos algunos
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#18 cualquier biólogo evolutivo te va a decir lo mismo que estás diciendo tú.
#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
#28 Un cánido jamás va a pasar el test del espejo por una sencilla razón: Su sentido del olfato es muy superior al nuestro y esta tan integrado con su percepción que no pasa un teste que esta pensado para seres que su sentido principal es la vista.
#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más fascinantes en este sentido, y que está arrojando investigaciones con resultados sorprendentes, son los que tienen que ver con las aves. Podría citar casos con los córvidos ya que son algunas de las especies más interesantes, pero con especies más pequeñas, como carboneros y herrerillos, ya se han podido demostrar algunos niveles de lenguaje complejo realmente interesantes.
#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece", no por ello desapareciendo la inteligencia, sino no habria capacidad de agenciamiento, ni intencionalidad, ni experiencia de flujo, lo que se llama capacidad exteroceptiva en neuropsicología. I cuando "pensamos" o " o "reflexionamos" ( cogito, ergo sum), aparece toda la parte de dualidad, toda nuestra capacidad para pensar en categorías, dualidades, matemáticas, etc. Lo que se llama capacidad interoceptiva. Aquí te dejo una masterclass que lo desarrolla bien:
From brain to mind: A spatiotemporal approach
#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle entendemos por inteligencia) es un tema siempre bastante controvertido, por la inevitable tentación de arrojar una valoración "humano centrista".
En algunos de los estudios que más conozco, por ejemplo, se ha utilizado la escala de CI de Louis Lefebvre, pero esa escala de por si no tiene porque representar los estudios de Chris Templeton acerca del lenguaje del carbonero. ¿porqué? Porque tal vez la importancia del lenguaje para el carbonero sea tan alta, que para nosotros resulte muy difícil comprender cómo de importante para su inteligencia es esa capacidad.
Es un ejemplo obvio pero lo pongo por si acaso: Una persona muda no deja de ser inteligente. Puede ser tan inteligente o más que yo. Eso es algo que como humanos sabemos. Por eso es muy arriesgado intentar trasladar estos parámetros a otras especies.
Ahora no me voy a acordar del nombre, pero hay estudios sorprendentes en esta misma dirección con abejorros, planteándoles una serie de problemas a modo de puzzle, que eran capaces de resolver.
Respecto a un intento de arrojar luz específicamente a las capacidades cognitivas, Herculano-Houzel tiene estudios intentando relacionar la cantidad de neuronas con las capacidades cognitivas.
Es interesante echar un ojo a sus estudios porque determina una forma de medir, cuantitativamente, la capacidad cognitiva, gracias a los resultados del % de neuronas en la corteza cerebral. Aunque como tampoco niegan... es como estar midiendo algo que no sabemos muy bien que es. Pero deja la puerta abierta a ese otro tipo de inteligencias.
Si han podido demostrar que, en los casos de especies que aún podemos llegar a poner a prueba (según las pruebas humanas) esa mayor concentración de neuronas en la corteza cerebral es la que permite unas mayores capacidades cognitivas... y nos encontramos con una especie (de ave por ejemplo) don un % que puede estar triplicando el de algunos mamíferos (como el del elefante) , pero no somos capaces de "entender" sus capacidades... ¿qué nos estaremos perdiendo? ¿qué es lo que no estamos viendo?
Con esto voy a tirar de un clásico, como Carl Sagan, la cuestión que planteaba creo que poniendo como ejemplo una serpiente como un alienígena muy inteligente, del cual, ambos seríamos totalmente inconscientes de la capacidad de inteligencia mútua, por la incapacidad de comunicarnos entre nosotros.
No digo que los estudiosos que tú planteas no sean útiles. Son cruciales. Pero es posible que estemos como humanos, bloqueados por la propia asíntota de que no podemos dejar de ser humanos cuando intentamos entender las capacidades de otras especies, y sólo podemos sorprendernos cuando se dan esas circunstancias que permiten un nexo comparativo entre diferentes formas de ser inteligente.
Llevamos con esta matraca desde Aristóteles con su scala naturae y en realidad, tampoco hemos avanzado mucho
Agradezco mucho tu comentario. Da gusto leer algo así.
#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.
Si, es un gusto debatir así contigo. :)))
#178 Si los trabajos de Northoff, LeDoux o Pankseep, te parecen al mismo nivel que la mística de Jung...Ojo, el trabajo de Flake no és malo, pero de ahí a esperar que a través de la computación y la matemática puedan decir el "cómo" estamos a un buen trecho, es decir, no podemos ni simular por donde irá una hormiga a través de una mesa.
#28 Los cuervos lo pasan.
#44 Tienes toda la razón. Gracias por recordarlo.
#81 Eso es un Ad-Hominem de manual.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
#5 ¿A qué te refieres cuando hablas de animales (¿Estás excuyendo a los Homo sapiens de tu definición de 'animales'?)
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.
#3 Quizá nunca lo sabremos
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#64 Si, y no... y razón no te falta, pero veamos.
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por tanto interfieren en dichas funciones, y en un cerebro completamente formado y adulto es muy poco probable que la maleabilidad funcional del propio cerebro, pueda compensar según que daños, obviamente resultará en fallas muy posiblemente letales.
No lo planteo en esos términos, sino en lo que comenta #52 como autoconciencia... y es ahi donde, obviamente, el mejor candidato será el cerebro, pero aún sigue siendo un misterio dicha autopercepción, en qué magnitud otras especies pueden estar experimentándola, cómo se mide y localiza dicha autopercepción, y cuando suceda en una IA, seremos capaces de reconocerla? O siquiera podemos empíricamente demostrar, que es imposible que eso suceda en una IA porque hay una causa o premisa que los organismos vivos si tenemos y las IA no?
Es a eso a lo que me refiero, y para nada digo que sea imposible que esté en el cerebro, pero también es cierto que estamos lejísimos aún de comprender cómo funciona el mismo, ni siquiera para la gran mayoría de sus funciones básicas, y menos aún en cuanto a lo que se refiere a la autopercepción. Qué elementos confinan un "yo"? cuantos yoes puede haber? Un organismo como el nuestro, que a su vez, contiene infinidad de organismos, cuantos "yoes" alberga? unos encapsulan a otros? hay transferencia o incluso consciencia de esos yoes entre ellos? Dudo que sea algo tan simple como plantearlo como un mero sistema mecánico que responde a impulsos... o quizás si sea posible y simplemente me resisto a creerlo.
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#10 wtf. Por esa regla de 3 el 99,9% de las especies del planeta estarían extintas.
#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido
#2 correcto. Totalmente de acuerdo. La eacala hace al fenomeno. La misma neurona simple y predecible provoca a gran escala consciencia.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y ocurre lo mismo, un hemisferio justifica que él tomó ciertas decisiones en base a la información que tiene (y que puede ser diferente del otro hemisferio).
Algunas personas no tienen una "voz interior" en su mente, y otras tienen diferntes grados de visualización mental. Si te digo que imagines una manzana, muchas personas pueden imaginar una manzana realista en su mente, otros solo una "caricatura", y algunas personas ni eso.
Sin embargo, sabemos que tenemos "consciencia" simplemente porque nosotros la tenemos, y asumimos que otras personas también porque describen fenómenos similares, pero con una máquina no tenemos dicha certeza...
#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
#25 Bueno, realmente, el qué es la consciencia.. es algo que ni empírica, ni científicamente, ha tenido ninguna explicación aún plausible, constatable... ni tan siquiera hay rotundidad demostrable de si la misma radica en el cerebro, en el caso de los humanos.
#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir un código que simule un cerebro. No estoy diciendo que nunca podamos construir un cerebro digital, pero desde luego, nunca lo podremos programar. Habrá que hacer otra cosa.
Lo de Skynet volviéndose consciente (o el Ghost in the Shell) queda guay para la sci-fi, pero no tiene base científica.
#88 #25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#25 quizas falta hardware para darle la chispa al firmware que cree al Frankestein.
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
#2 ... y que, tarde o temprano, se nos acabará yendo de las manos.
Tiene pinta de que tarde o temprano acabará saliendo. Una de las pocas zonas naturales que tenemos en pleno corazón de Huelva y están deseando infectarla, menuda plaga estamos hechos...
#3 La naturaleza está repleta de casos así de curiosos. Se me viene uno a la mente que lo leí en el Origen de las especies de C. Darwin de una planta, que creo que era un tipo de amapola o campanilla (no recuerdo bien), y tenía un sistema que hacia el insecto coleóptero que venía de turno a llevarse su néctar, caía a través de la flor, mojando las alas del insecto haciendo que tuviera que arrastrase para salir por otro lado y se impregnaban las alas con polen. Una maravilla
La cantante Grimes pide a sus fans que sigan la tendencia musical de la inteligencia artificial y hagan temas con su voz: "Dividiré el 50% de los derechos"
Trasteando con el ya más que conocido ChatGPT, que para quién no lo sepa aún es un modelo de lenguaje basado en Inteligencia Artificial GPT-3, entrenado con la información disponible en internet hasta 2021. Se me ocurre preguntarle: ¿Cuál sería el sistema social más idóneo para el cuidado individual? La respuesta no tiene desperdicio: "El cuidado individual es un tema complejo que implica la atención y el bienestar de la personas en diversas etapas de la vida, desde la infancia hasta la vejez. Un sistema social idóneo para el cuidado individual debería estar diseñado para garantizar que todas las personas tengan acceso a los recursos necesarios para satisfacer sus necesidades físicas, emocionales y mentales. Un sistema social idóneo para el cuidado individual podría incluir políticas y programas que promuevan la atención médica asequible y de calidad, la educación de calidad para todos, la igualdad de oportunidades laborales, el acceso a servicios de apoyo para personas con discapacidades o necesidades especiales, y la protección de los derechos y la seguridad de las personas en situación de vulnerabilidad. Además, un sistema social idóneo para el cuidado individual debería estar diseñado para fomentar la solidaridad y la cooperación entre las personas, y promover la creación de redes de apoyo comunitarias. Esto puede incluir la promoción de políticas que fomenten la participación activa de las personas en su comunidad, la creación de oportunidades para la conexión social y el apoyo emocional, y la inversión en infraestructuras comunitarias que fomenten la cohesión social y la inclusión. En resumen, un sistema social idóneo para el cuidado individual debería estar diseñado para garantizar que todas las personas tengan acceso a los recursos necesarios para satisfacer sus necesidades básicas y fomentar su bienestar emocional, mental y físico."Lejos de cualquier posicionamiento ideológico, la respuesta que da parece bastante coherente y curiosa a la vez, ya que recalca el cuidado social para el bienestar individual. Hay que tener en cuenta que ningún ser humano tiene en su conocimiento toda la información disponible en Internet, que aunque hay información irrelevante, también la hay de calidad. ¿Estamos ante el próximo "oráculo social"?
Habla sobre las neuronas de concepto, un tipo de neurona que sólo se encuentra en los seres humanos y que es capaz de responder ante un concepto concreto. Además trata la implicación que pueden tener en la educación y la conciencia, y da su opinión sobre si una IA podría llegar a ser autoconsciente.
Joder, las noticias de virus empiezan a ser como las de las baterías milagrosas, pero la diferencia es que con la de los virus parece que siempre se está deseando que se dé otra pandemia. Qué cansinez.