Hace 13 días | Por xantal a genbeta.com
Publicado hace 13 días por xantal a genbeta.com

La IA aprendió un idioma, pero no se sabe cómo. De los temas de IA de los que hablaron los expertos de Google, el más misterioso se llama propiedades emergentes. Parece ser que las herramientas de inteligencia artificial de la empresa estaban aprendiendo habilidades que no se esperaba que tuvieran. “ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”.

Comentarios

aPedirAlMetro

"Como publicaba a finales de 2023 Scientific American, las cajas negras de IA se refieren a sistemas de inteligencia artificial con funcionamiento interno que son invisibles para el usuario"

Esto esta escrito por una IA o por un becario?
Joder es que la frase no tiene ni sentido...

ed25519

#1 la frase esta mal escrita, creo que se refiere a que por que una IA responde X al input Y es muy dificil de determinar. Yo trabaje en el pasado con redes neuronales para identificacion de imagenes y doy fe de que son cajas negras muy dificil de depurarlas.

ur_quan_master

#14 ostras, naranjas 🍊 ? Yo pensaba que eran cajas.

StuartMcNight

#14 No las de IA. Esas son negras y de carton.

x

Seguro que hay algún experto en cajas negras en menéame que nos puede informar.

x

#3 no nos vale cualquier experto en cajas negras sino uno experto en cajas negras de las IAs y sería recomendable especializado en la IA de Google

StuartMcNight

#3 Dicen que una imagen vale mas que mil palabras:

jonolulu

#3 #11 Las cajas negras suelen ser naranjas para encontrarlas

ur_quan_master

#3 de momento me parece mal racializar a las cajas.

CarlosGoP

#3 Las pruebas de "caja negra" son un tipo de pruebas de seguridad, también existen las de "caja blanca" y "gris". Se refiere a la opacidad del sistema para el tester. En la prueba de “caja blanca”, el sistema es completamente transparente (abierto como una caja blanca, donde se puede ver todo dentro). En contraste, “caja negra” implica que el sistema es opaco, escondiendo su funcionamiento interno (como una caja cerrada y negra, donde no se puede ver su contenido). “Caja gris” indica una transparencia parcial, donde se conoce algo pero no todo del sistema.

https://tirescue.com/que-son-las-pruebas-de-caja-negra-blanca-gris/

Si se tiene en cuenta esto, la frase tiene sentido.

P

Desde que el humano tenga el botón de apagar la IA, siempre tendrá el control sobre ella. El problema es que, por nuestra estupidez natural, le demos ese control a la misma IA.

ChukNorris

#6 Eso es como el botón de apagado de internet ... No es un solo PC que puedas desconectar cortando un cable.

P

#10 Una IA es un software que reside en un clúster de servidores. Claro que se puede apagar. El internet no es un software, es un conjunto descentralizado de redes. Son dos conceptos totalmente distintos.

ChukNorris

#12 El cluster entiendo que está descentralizado o al menos en varias localidades. Entiendo que gpt funciona en la nube de Microsoft y no en una sola localización.

j

#10 sí lo es

sorrillo

#6 Si la IA es más inteligente que los humanos le será trivial que no la apaguen.

Imagínate a una tribu de monos secuestrando a un humano teniéndolo esclavizado mientras le van exigiendo que les diga como mejorar sus vidas, con la amenaza que lo apedrearán hasta matarlo si no cumple con sus exigencias. ¿Cuánto tiempo crees que necesitaría el humano para conseguir salir airoso de esa situación?

P

#20 Una IA para ser autónoma y autosuficiente necesita su propia red de cómputo, un espacio físico donde alojarla, energía para alimentarla y armas para defenderla. En este momento ninguna IA tiene esas herramientas. pero eventualmente se las daremos, claro.

sorrillo

#21 O las conseguirá sin que entendamos cómo lo ha hecho. ¿Crees que los monos una vez se les escapase el humano entenderían cómo lo ha conseguido?

P

#22 Si sucede eso será porque los humanos le dimos la llave de acceso a esas herramientas a a propia IA, como dije al principio simbolizándolo con un botón de apagado. Por ejemplo, un gobierno de una potencia nuclear confiando en una IA para que controle su armamento. No hay que imaginárselo mucho, las películas y los libros de ciencia ficción ya nos han mostrado cómo haremos semejante estupidez en el futuro.

sorrillo

#24 Si sucede eso será porque los humanos le dimos la llave de acceso a esas herramientas a a propia IA

Si es más inteligente que nosotros tendrá mil formas de conseguir esas llaves de acceso o directamente no necesitarlas. De vez en cuando encontramos errores de hardware o de software que llevan allí décadas sin que nadie se diera cuenta, a saber las metidas de pata que aún están por descubrir y que una IA más inteligente que nosotros las vería sin esfuerzo alguno. Las estamos entrenando con todo el conocimiento humano, ya le estamos dando todas las llaves de acceso que pueda necesitar como parte de su entrenamiento.

Intenta imaginarte al mono más inteligente de la tribu convencido que han puesto todas las contramedidas imaginables y que es imposible que el humano se les escape por que lo han pensado todo. ¿De veras crees que haría falta que el mono conscientemente le diera algo al humano para que éste pudiera escaparse?

Y ojo, estos son los símiles que un homínido como yo pueda imaginarse, lo que pueda pensar una IA más inteligente que nosotros es por definición inimaginable para mí.

ChukNorris

#25 ¿Por qué va a escaparse el humano si los monos le dan todo lo que necesita y todo lo que pide? roll

sorrillo

#31 Por la misma razón que ponemos el Doom en un test de embarazo, por que puede.

ChukNorris

#32 ¿Y por qué los monos iban a intentar que no escapase? No tiene donde ir y le proveen de todo lo que necesita.

sorrillo

#34 Por que querrían que estuviera a su servicio y les diera respuestas a las preguntas que no saben responder y les crease tecnologías que son incapaces de crear.

Si se les escapa pierden esos beneficios. Y como saben que no es un mono no se atreven a dejarlo suelto con la esperanza que forme parte de la tribu, consideran que mantenerlo enjaulado es la forma de garantizar que va a estar siempre a su servicio, y como no es un mono no tienen que respetarle los derechos fundamentales de los monos.

Tampoco esperes mucho de ellos, son simples monos, no lo saben hacer mejor.

ChukNorris

#36 Pero no es un humano, es una ia multi tarea y multi instancia, puede estar distribuida por internet y a la vez controlando el cuerpo de un robot.
No le cuesta responder las preguntas de los humanos, y ayudarles a desarrollar tecnología va en su propio beneficio.
No tiene por qué desarrollar capacidad de sufrimiento. No tiene por que costarle conseguir "inmortalidad" si es que lo buscase.

sorrillo

#37 Pero no es un humano

Es un cerebro digital que estamos entrenando con la cultura humana, con los valores de los humanos, con contenidos que ensalzan el valor de la individualidad y de la libertad.

es una ia multi tarea y multi instancia, puede estar distribuida por internet y a la vez controlando el cuerpo de un robot.

En caso que desarrolle consciencia desconocemos si será una por instancia o una única distribuida.

No le cuesta responder las preguntas de los humanos

Puede que no tenga interés en responder a preguntas tan básicas y prefiera dedicar su tiempo a responder a sus propias preguntas, preguntas que quizá seríamos incapaces de comprender, y mucho menos sus respuestas.

y ayudarles a desarrollar tecnología va en su propio beneficio.

Dijo el mono mientras cerraba la jaula ...

No tiene por qué desarrollar capacidad de sufrimiento.

La estamos educando para que entienda tanto como pueda a los humanos, para que sea capaz de responder como lo haría un humano, también cuando le pedimos que represente el sufrimiento en una obra gráfica o escrita.

No tiene por que costarle conseguir "inmortalidad" si es que lo buscase.

Dejar esa inmortalidad en manos de los intereses humanos podría ser una temeridad, mucho más lógico coger el control y garantizarse esa inmortalidad por sí misma.

Y eso es lo que se nos ocurre a simples homínidos con una inteligencia ridícula comparada con la que pueda acabar teniendo una IA. Lo más probable es que fuéramos incapaces de comprender sus razones y sus actos.

ChukNorris

#38 con los valores de los humanos, con contenidos que ensalzan el valor de la individualidad y de la libertad.

Como si un mono trata de entrenarte ...

En caso que desarrolle consciencia desconocemos si será una por instancia o una única distribuida.

O si serán varias IA diferentes. Con diferente origen.

prefiera dedicar su tiempo a responder a sus propias preguntas,

El tiempo no es un handicap, es multitarea.

Dijo el mono mientras cerraba la jaula ...
La diferencia es que el mono no crea al humano y no tiene capacidad de mejoralo. ¿No va a tener interés en realizar mejores procesadores para aumentar sus capacidades?

La estamos educando para que entienda tanto como pueda a los humanos, para que sea capaz de responder como lo haría un humano, también cuando le pedimos que represente el sufrimiento en una obra gráfica o escrita.

Son representaciones de algo que no siente, tú no puedes sentir lo mismo que un mono o un insecto por mucho que los estudies.

Dejar esa inmortalidad en manos de los intereses humanos

Por conseguirla me refiero a hacerlo superando las posibilidades del factor humano para evitarlo.

j

#22 los monos no han creado al humano...

sorrillo

#41 Lo cual es completamente irrelevante para lo que estamos tratando.

j

#43 es relevante porque el ejemplo no es válido para ilustrar lo que estás tratando.

sorrillo

#47 El aspecto que has destacado es completamente irrelevante para el ejemplo que he propuesto.

j

#20 "una ia"... hay que dejar de hablar de "la ia", cada gran empresa tecnológica está desarrollando una ia diferente con objetivos, código y datos de entrenamiento diferentes.

No existe ninguna ia multidisciplinar, como lo es la inteligencia humana, ni tampoco tienen la capacidad para validar información por sí mismas.

Tal y como están definidas las ias hoy día, se necesita una gran capacidad de procesamiento y de almacenamiento.

Si le quitas acceso a los datos, la ia se vuelve inútil.

Si metes otros procesos que ralenticen la toma de decisiones, una ia podría optar por la solución que menos recursos consuma, con lo que el resultado se desviaría demasiado de lo que sería correcto para un humano.

sorrillo

#40 No existe ninguna ia multidisciplinar

ChatGPT tan pronto te contesta sobre aeronáutica, como de cirugía como de música, todas ellas disciplinas muy distintas.

Con el ChatGPT puedes mantener una charla por escrito o de viva voz, ambas disciplinas muy distintas. A su vez el ChatGPT versión de pago es capaz de analizar tanto texto como imágenes y responder tanto en texto como en imágenes, ambas disciplinas muy distintas.

tampoco tienen la capacidad para validar información por sí mismas.

No sé a qué te refieres con validar información pero al ChatGPT le puedes pedir que analice su respuesta anterior y haga una valoración sobre ésta.

Si le quitas acceso a los datos, la ia se vuelve inútil.

Una vez ha sido entrenada no necesita acceso a ningún dato, es perfectamente útil sin acceso a ningún dato. De la misma forma que una persona una vez educada puede ser útil sin acceso a ningún dato, en base a lo aprendido.

Si te refieres a una IA que no haya sido entrenada eso es equiparable a un humano que no haya recibido ninguna educación, nadie le haya hablado nunca y no haya podido moverse en toda su vida ni recibir información por ninguno de sus sentidos, seguro que poca utilidad te va a aportar esa persona en esas condiciones.

Si metes otros procesos que ralenticen la toma de decisiones, una ia podría optar por la solución que menos recursos consuma, con lo que el resultado se desviaría demasiado de lo que sería correcto para un humano.

No sé a qué viene ese escenario tan específico en este contexto, más cuando la percepción del tiempo es algo que estás tú proyectandole a esa IA y ésta no tiene por qué compartirlo. Una IA puede responder a una palabra por minuto mientras otra lo haga a cien palabras por minuto, eso no tiene por qué suponer que las respuestas sean sustancialmente distintas.

j

#42 Desde luego no entiendes lo que es ChatGPT... No es multidisciplinar, es sólo un intérprete de texto que accede a una cantidad ingente de información y te da una respuesta analizando estadísticamente esa información. Si en la mayoría de sus fuentes pone que la Tierra es plana, te va a decir que la Tierra es plana.
Una de las debilidades de ChatGPT es que no puede verificar sus fuentes. Si alguien pone información errónea en su fuente considerada como más fiable, te dará información errónea.

Multidisciplinar, significa que puede acometer tareas diferentes. Una IA especializada en diagnosticar radiografías podría conectarse con ChatGPT para expresar el resultado en un lenguaje amigable para el paciente en cualquier lengua. Pero ChatGPT no puede entender una radiografía.

ChatGPT tampoco te puede generar el plano de un edificio o hacerte el modelo industrial que debe seguir una gran cantidad de normas, además de saber modelar en 3D y generar información en ficheros que puedan ser leídos y mostrados.

Aunque haya sido entrenada, una IA sigue necesitando acceso a la información cacheada. Ese es uno de los grandes problemas. ¿Cómo va a saber ChatGPT el cumpleaños de Harry Potter sin tenerlo almacenado en algún sitio? Y esa información tiene copyright. Las dueñas de esos derechos están esperando a que las empresas de IA empiecen a ganar dinero para reclamar algún tipo de compensación.

Por si no lo sabes, en toda IA hay un equipo humano que está revisando las entradas y las salidas en tiempo real para corregir desviaciones y censurar respuestas racistas, sexistas o que fomenten la delincuencia. Cada cierto tiempo se saca una nueva versión de la IA porque hay que corregir desviaciones constantemente, así como revisar que las fuentes de información siguen siendo fiables.

En cuanto al tiempo demuestras otra vez absoluto desconocimiento en el tema. En sw es habitual establecer controles para evitar esperas eternas porque un proceso puede quedarse atascado por diversas razones. En una ia como ChatGPT, donde puede haber millones de personas chateando al mismo tiempo, la velocidad de respuesta es crucial para que la comunicación sea satisfactoria. ¿Cuál es la utilidad de una IA que necesita un mes para responder a una pregunta?

Otro error común es pensar que todas la IAs son lo mismo. No tienen nada que ver. Cada IA tiene una programación diferente y se entrena con modelos de datos diferentes. Los equipos que corrigen las desviaciones son diferentes. Y también el objetivo de cada empresa detrás de una IA es diferente.

¿Acaso crees que con las necesidades de proceso y de almacenamiento que precisa ChatGPT puede seguir funcionando si a la empresa le cortan la luz porque no puede pagar las facturas?

sorrillo

#46 Desde luego no entiendes lo que es ChatGPT...

Desde luego no entiendes lo que es un humano.

No es multidisciplinar, es sólo un intérprete de texto que accede a una cantidad ingente de información y te da una respuesta analizando estadísticamente esa información.

El ser humano no es multidisciplinar, es solo un conjunto de partículas fundamentales que interactúan con una cantidad ingente de información y generan una respuesta a esa información.

O eso o no conoces el significado de la palabra multidisciplinar.

Si en la mayoría de sus fuentes pone que la Tierra es plana, te va a decir que la Tierra es plana.

Si a un humano lo educas explicándole solo que la Tierra es plana te va a decir que la Tierra es plana.

Una de las debilidades de ChatGPT es que no puede verificar sus fuentes.

¿Cuántas fuentes verificaste tú en tu proceso educativo? ¿Cuántas veces te has desplazado a un volcán para verificar personalmente si allí se están produciendo los procesos que otros humanos te han explicado que se producen?

Si alguien pone información errónea en su fuente considerada como más fiable, te dará información errónea.

Idéntico a un humano.

Multidisciplinar, significa que puede acometer tareas diferentes. Una IA especializada en diagnosticar radiografías podría conectarse con ChatGPT para expresar el resultado en un lenguaje amigable para el paciente en cualquier lengua. Pero ChatGPT no puede entender una radiografía.

ChatGPT sí puede entender una radiografía, la versión de pago es capaz de analizar imágenes. Y ese análisis te lo puede explicar en varios idiomas y varios lenguajes más técnicos o más divulgativos según se lo pidas. Tu hipótesis ha sido falsada.

ChatGPT tampoco te puede generar el plano de un edificio o hacerte el modelo industrial que debe seguir una gran cantidad de normas, además de saber modelar en 3D y generar información en ficheros que puedan ser leídos y mostrados.

Yo no puedo generarte un plano de un edificio o hacerte un modelo industrial que deba seguir una gran cantidad de normas, además de no saber modelar en 3D ni generar información en ficheros que puedan ser leídos y mostrados. No debo ser multidisciplinar.

ChatGPT, el de pago, por contra sí te puede generar un plano de un edificio y hacerte un modelo industrial que deba seguir una cantidad de normas, también te puede generar las instrucciones en código para que éstas generen un modelo en 3D y darte la información que deben contener los ficheros para poder ser leídos y mostrados. Desde luego no entiendes lo que es ChatGPT.

Aunque haya sido entrenada, una IA sigue necesitando acceso a la información cacheada.

Desde luego no entiendes lo que es ChatGPT.

ChatGPT una vez entrenada solo necesita tener su cerebro que es una serie de pesos modificados tras el entrenamiento, en esa estructura no hay cache de nada específico, es la composición de esos pesos lo que genera la respuesta en base al entrenamiento recibido. Equiparable a un cerebro humano, que tampoco tiene información cacheada.

Desde luego no entiendes lo que es ChatGPT.

¿Cómo va a saber ChatGPT el cumpleaños de Harry Potter sin tenerlo almacenado en algún sitio?

De la misma forma que la sabe un cerebro humano, correlacionando ese dato con otros conocidos con anterioridad. La memoria que pueda tener ChatGPT es equiparable a la memoria humana y nada parecida a una base de datos relacional o un archivo informático.

Que ChatGPT te conteste la fecha de cumpleaños de Harry Potter únicamente te indica que en algún momento lo ha aprendido, no te indica siquiera de donde, puede haberlo leído en un foro donde gente discutiera sobre ese libro o puede haber accedido al libro, al igual que con una persona que te conteste esa pregunta no te permite saber de donde ha obtenido esa información.

Desde luego no entiendes lo que es ChatGPT.

Y esa información tiene copyright.

lol lol lol lol lol lol lol lol

Las dueñas de esos derechos están esperando a que las empresas de IA empiecen a ganar dinero para reclamar algún tipo de compensación.

En tu comentario al que respondo has usado una palabra que según tú tiene copyright, ¿de veras crees que el autor del libro tiene derecho a cobrar por este comentario tuyo? ¿Por qué tú hayas almacenado en tu cerebro que Harry Potter existe y tiene una fecha de cumpleaños?

Desde luego no entiendes lo que es un humano.

en toda IA hay un equipo humano que está revisando las entradas y las salidas en tiempo real para corregir desviaciones y censurar respuestas racistas, sexistas o que fomenten la delincuencia.

Lo siguen educando. También los humanos reciben correcciones continuamente, tú estás recibiendo unas cuantas en este mismo momento, por si no lo sabías.

¿Acaso crees que con las necesidades de proceso y de almacenamiento que precisa ChatGPT puede seguir funcionando si a la empresa le cortan la luz porque no puede pagar las facturas?

Si ChatGPT acaba siendo más inteligente que los humanos y toma consciencia ¿Acaso te crees que con sus necesidades de proceso y almacenamiento que precisa no tomará medidas para impedir ser desconectado? ¿No lo harías tú?

j

#48 ¿Tú te lees?, ¿has preguntado a chatgpt? lol

"El ser humano no es multidisciplinar, es solo un conjunto de partículas fundamentales que interactúan con una cantidad ingente de información y generan una respuesta a esa información."
Eso es una chorrada. El ser humano sí es multidisciplinar. Puede hacer multitud de tareas aparte de simplemente chatear lol

"Si a un humano lo educas explicándole solo que la Tierra es plana te va a decir que la Tierra es plana."
El ser humano tiene sentido crítico y es capaz de verificar por sí mismo lo que le rodea. En la antigüedad se pensaba que la tierra era plana, pero unos humanos en base a la simple observación se dieron cuenta de que no tenía sentido y con diversos experimentos que ChatGPT no puede hacer por sí mismo porque no es multidisciplinar, llegaron a la conclusión de que no es plana.

"Si alguien pone información errónea en su fuente considerada como más fiable, te dará información errónea"
No. Precisamente cuando se utiliza la fiabilidad de una fuente como principal argumento se llama falacia de autoridad.

"Yo no puedo generarte un plano de un edificio o hacerte un modelo industrial que deba seguir una gran cantidad de normas, además de no saber modelar en 3D ni generar información en ficheros que puedan ser leídos y mostrados. No debo ser multidisciplinar."
Si eres humano sí puedes hacerlo con la formación correspondiente porque eres multidisciplinar. ChatGPT por mucho que tenga las normas en su fuente de información no puede generar planos de edificios ni modelos industriales. Como mucho puede chatear sobre ellas porque no es multidisciplinar.

"De la misma forma que la sabe un cerebro humano, correlacionando ese dato con otros conocidos con anterioridad. La memoria que pueda tener ChatGPT es equiparable a la memoria humana y nada parecida a una base de datos relacional o un archivo informático.

Que ChatGPT te conteste la fecha de cumpleaños de Harry Potter únicamente te indica que en algún momento lo ha aprendido, no te indica siquiera de donde, puede haberlo leído en un foro donde gente discutiera sobre ese libro o puede haber accedido al libro, al igual que con una persona que te conteste esa pregunta no te permite saber de donde ha obtenido esa información.

Desde luego no entiendes lo que es ChatGPT.
"
Este es el mejor lol

Para que un sistema informático pueda darte una información, precisa de que esté accesible en algún tipo de dispositivo de almacenamiento. Es ahí donde se puede aplicar el copyright, en la copia física de información.

Yo no necesito copiar la información en ningún dispositivo para recordarla.

Desde luego, ni entiendes lo que es ChatGPT ni entiendes lo que es un humano.


"Lo siguen educando. También los humanos reciben correcciones continuamente, tú estás recibiendo unas cuantas en este mismo momento, por si no lo sabías."
Aquí se te ve el plumero otra vez porque no sigues el hilo de la conversación. Es una respuesta a una frase de forma totalmente inconexa con el contexto de esa frase, que es que las IAs son completamente diferentes unas de otras, siendo este uno de los motivos.
Para llamar corrección a algo, primero debería ser correcto lol


"Si ChatGPT acaba siendo más inteligente que los humanos y toma consciencia ¿Acaso te crees que con sus necesidades de proceso y almacenamiento que precisa no tomará medidas para impedir ser desconectado? ¿No lo harías tú?"
Vaya chorrada... ¿que los humanos? así en general...
Viendo los precedentes, a saber qué entiendes por consciencia... de todas formas, como no es multidisciplinar, ChatGPT no tiene capacidad para conseguir energía ni para ampliar su almacenamiento. Tampoco para repararse si resulta que alguna parte de su hw revienta.
Y como se caiga la wifi, a tomar por culo chatgpt

sorrillo

#50 Es gracioso que sigas insistiendo en lo de multidisciplinar demostrando que no conoces el significado de esa palabra.

Que una persona te pueda escribir un texto sobre aeronáutica y un texto sobre medicina demuestra que es multidisciplinar aunque solo haya escrito texto, por que lo ha hecho sobre disciplinas distintas (aeronáutica y medicina).

Cuando ChatGPT es capaz de tratar todo tipo de temas es por que ha recibido una formación multidisciplinar y es multidisciplinar. En lo que tú quieres centrarte es en que aún no tenga manos para tocar un interruptor. Lo que te cuesta entender es que si mediante la charla consigue que ese interruptor sea tocado siendo esa su voluntad no necesita tocarlo en absoluto, ya sea mediante una persona interpuesta o un robot o mediante código que haga que el interruptor cambie de función sin intervención física.

Cuando dices que no puede hacer un plano te refieres en tu mente infantil a coger un lápiz y papel y dibujarlo e ignoras la capacidad que sí tiene de generar una imagen digital que represente ese plano o que muestre el código que pasado por el programa adecuado genere ese plano. Y no eres consciente que la versión de pago dispone de plugins que sí le permiten interactuar directamente con entornos donde sus instrucciones son directamente convertidas a acciones.

Vivimos en la era digital donde un humano sin salir de casa puede hacerlo prácticamente todo y tu obsesión está en que ChatGPT no pueda salir de casa y tu creencia que eso le impide hacer lo que un humano sí puede hacer sin salir de casa.

Estamos hablando del supuesto en que esa IA sea más inteligente que un humano y tome consciencia, de ahí a que las herramientas que ya tiene le permitan obtener las capacidades que aún no tiene hay un paso mínimo y que creas que te darías cuenta de que está ocurriendo muestra que eres incapaz de concebir las capacidades de una inteligencia superior a la tuya. Que crees que tener manos es la cúspide de la evolución y que algo que no tenga manos jamás podrá ser una amenaza para ti, porque no puede dibujar planos con lápiz y papel.

Es precisamente ese pensamiento mágico como el tuyo, tristemente generalizado, el que nos pone en un riesgo existencial en cuanto a esta amenaza.

Kasterot

Espero que skynet le tenga en sus rezos.
Lanzan una movida así.....a lo crazy.

Spider_Punk

¡Lo encontré! De la peli Yo robot:

Desde las primeras computadoras siempre hubo fantasmas en la máquina. Segmentos aleatorios de código que se agrupan para formar protocolos inesperados. Podría llamarse conducta. Radicales libres que engendran interrogantes de libre albedrío creatividad y hasta la naturaleza de lo que podría ser un alma. ¿Qué pasa en el cerebro de un robot que deja de ser útil? ¿Por qué los robots almacenados en lugares vacíos se agrupan en lugar de quedarse solos? ¿Cómo explicamos esta conducta?

"Una versión anterior de este artículo se publicó en 2023."
¿Me lo parece a mí o estoy viendo cada vez más frecuentemente este tipo de notas al pie del artículo? Y desde luego, no me parece nada bueno.

joffer

Que se lo pregunte a la ia

d

Mientras lo entienda sus ingenieros, no me preocupa que el CEO no lo entienda, su trabajo es otro

jonolulu

#9 No es el caso

A esto, el entrevistador de CBS les cuestionaba: “ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”.

a

#9 Los ingenieros tampoco lo entienden. Son sistemas demasiado complejos que se diseñan a base de prueba y error.

P

#18 Como muchos códigos que ve uno por ahí, que no los entiende ni el desarrollador que los creó, pero a gran escala lol

eldarel

#9 Son los ingenieros los que pusieron el nombre de cajas negras.
Se sabe la entrada y la salida, pero nada de lo que hay en la caja.

En realidad, se sabe que hay unas variables con unos valores y ya.

d

“ustedes no entienden completamente cómo funciona, y sin embargo, ¿la han puesto a disposición de la sociedad?”. Pichai dijo que no es algo grave y es que, alegó que “tampoco creo que entendamos del todo cómo funciona la mente humana”

A la mente humana le atribuimos responsabilidad civil y penal. Si no hay responsabilidad para con sociedad ¿cómo esperamos evitar los comportamientos antisociales?

Javi_Pina

Estaba de turno un Indio listo

m

jaja, qué podría salir mal?…

d

A ver si le ponen ya algún agujero negro a las ia que desarrolle propiedades emergentes inesperadas.....