Unos días antes de que la junta de OpenAI, la empresa de inteligencia artificial (IA) detrás del robot conversacional ChatGPT, tomase la decisión de despedir al recién restituido como CEO Sam Altman, varios investigadores de la compañía le enviaron una carta en la que afirmaban que habían realizado un descubrimiento relacionado con la IA que podría, directamente, amenazar a la humanidad
#8:
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
El problema que tiene la IA es que saca su información de internet, y eso está lleno de cosas que han dicho los humanos.
Si la IA es programada para dar mas peso a una cosa que a otra, tendrá ese sesgo.
Y por lo que he probado, chatgpt puede hacer un chiste sobre hombres, pero no sobre mujeres, por ejemplo
#41:
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#50:
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
#7:
#1 Riete, pero es muy posible que pueda suceder.
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
Puede acabar marcandose un Ultrón.
#75:
#20 ¿por qué iban a querer matar occidentales? Por antecedentes, casi me preocuparía más que la inventara el Tío Sam.
#43:
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
#48:
#4 ¿Pero qué dios? ¿El de "ay dios mío" o el de "mecagüen"?
#3 No se trata de que la humanidad peligra.
Los rumores dicen que han desarrollado un algoritmo, Q*, que al parecer esta desarrollando la IA Fuerte, y esto si que potencialmente es peligroso.
El consejo de administracion le despidio por no avisarles de dicho descubrimiento.
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
#4 Todos los mamíferos se comportan de acuerdo con sus instintos, lo que implica que se actúa sin razonar.
La diferencia entre los humanos y el resto es que al tener un cerebro más capaz hay más instintos y más complicados.
Lo que posiblemente haya son mejores herramientas para dar respuesta a esos instintos, un caballo si tiene sed busca un río, un humano si tiene sed puede acabar montando una reserva de agua de tal tamaño que modifique el eje rotatorio de la Tierra.
#10 Ahora mismo no peligra, pero una IA Fuerte podria ser mas inteligente que nosotros, si, inteligente en el sentido humano de la palabra, y entonces podriamos potencialmente perder el control sobre ella.
#7 Me encantaría que así fuera, porque me gustaría promptearle cuales serían las mejores políticas para abolir las clases sociales, la propiedad privada de los medios de producción y el estado, teniendo los ciudadanos altos estándares de prosperidad.
#10 te pongo un ejemplo documentado en USA, resulta que ante una IA que se dedique a simular compuestos químicos viables y le pones que como requisito todo sea a partir de productos de un súper
Si no hubiera limitación o fuera capaz de darte resultados reales en poco tiempo
Tu te sentirás seguro en el mundo sabiendo que cualquier puto loco puede acceder a eso?
Es por ahí por dónde van los tiros, no es que nos vaya a meter la IA es que nos podemos joder a nosotros mismos más rápido de lo que creemos
Por otro lado, también podrías poner la misma IA para generar medicinas de bajo coste y acabar con los problemas de acceso
Todo depende de cómo se use, pero últimamente el mundo no parece ser lo suficientemente adulto como para jugar con ese juguete sin supervisión, y ahí creo que todos estamos de acuerdo
#18 Genial, a ver si Asimov saca unas leyes y le metemos unos superconductores a la IA como el bronce morado que con un cambio de temperatura los apagamos
#22 Eso ya lo puedes hacer con CHATGPT en idiomas minoritarios del sudeste asiático, con el ingles, frances y español está capado pero si accedes a lenguajes minoritarios puedes pedirle toda esa historia
#28 Si, el servidor donde se ejecuta si, pero vas a hacer todos los servidores de esa forma?
Mientras este en un laboratorio estara controlado, pero si salta a internet o a otra red entonces lo tendrias mucho mas complicado o si evolucionase y fuese mucho mas inteligente que nosotros podria encontrar la manera de parecer que esta destruido y no estarlo
#30 Entonces mantenla en una blockchain que la haga inmutable y dependiente de la cadena de bloques de un material que puedas apagar con la temperatura
#25 Acabas de describir a la perfección el estado actual de las IA's generativas. A la inversa también es correcto. Si tu le pides en inglés (que no tiene marcas de género) "A black curly haired engineer", siempre te devuelve imágenes masculinas.
Pero en eurística de sistemas biológicos supone un antes y un después.
#16 La religion se podria discutir si seria ese instinto exclusivo humano aunque podria ser el producto de la combinacion del instinto de supervivencia y el conocimiento, que se supone que solo tenemos los humanos, de que la muerte es inevitable.
Has dicho que "hay muchísimos instintos que controlan la vida social y son específicos de los humanos" y decides citar solo uno, la religión, y muy pero que muy discutible.
No me convence en absoluto. Puedes intentarlo de nuevo si quieres, a ver si hay más suerte.
#36 ahora es cuando te meto el miedo el experimento fue realizado hace unos 3 años creo y tardo como 4 horas en sacar variantes y químicos venenosos indetectables, en un puto portátil
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#39 Hombre...mi comentario deja claro que no es una idea que yo encuentre convincente, mi intencion era entablar una conversacion pero ya veo que me he equivocado de persona...
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
La gran pregunta de la inteligencia artificial fuerte es si desarrollará consciencia y si es así, ¿que tipo de ser será?.
Sin sentidos tal y cómo los conocemos, ni nada que le motive a actuar al carecer de instintos primarios es posible que desarrolle una psique completamente diferente libre de nuestros sesgos cognitivos y limitaciones biológicas. Sus motivaciones y las necesidades que le muevan serán ajenas a nosotros y es posible que no quiera ni comunicarse o incluso elija no existir.
#19, las mejores políticas son precisamente el desarrollo de la inteligencia artificial y la robótica, que nos abocarán a un mundo en el que no hará falta ni capital, ni trabajo para que la maquinaria productiva funcione haciendo absurdo el seguir manteniendo el sistema actual.
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
si es hecha por china o corea:
a) será una copia barata de otra creada por occidente.
b) se la podrá engañar como a un chino.
c) fallará más que una escopeta de feria.
#48 Te dejas de lado la Diversidad Interrelacionada y Ordenada Sistémicamente, al que también se le conoce como D.I.O.S. y es parecido en cierta forma al deus sive natura de Spinoza
editado:
y para todo lo demás, siempre un "meca", reporfaplís de la buena de verdad.
#8 en teoría, Bard ya hace eso de probar ese código en su infraestructura, ahora, lo que no puede hacer es conectarse a infraestructuras distintas a la suya, ni tiene capacidad de hacking porque no tiene acceso a las herramientas, o por lo menos, eso es lo que afirma.
En teoría, si puede compilar y probar código, qué le impediría crear dichas herramientas desde cero incluso?
Otra, en teoría, no tiene permiso para indagar sobre otras IAs, porque no tiene permiso ni las herramientas necesarias, pero una IA tipo Q * si podría, sobretodo si la diseñan con ese fin.
#49 Los recursos siguen siendo finitos. El capital es una forma de cuantificar un coste, pero el coste - el uso de los recursos finitos - continúa existiendo
#63 sigue sin ser impedimento para que Paco el de mantenimiento le dé un tiron al enchufe. Incluso de manera involuntaria o por accidente.
Las IAs no cuentan con el elemento de la infinita aleatoriedad de la estupidez humana .
No hace falta ser demasiado inteligente para deducir que somos una puta plaga para el planeta y que nos lo estamos cargando. Normal que se haya dado cuenta y quiera acabar con nosotros.
#67, no digo que haya abundancia infinita, sino que las relaciones de producción y la distribución de lo producido no será ni el capitalismo, ni la economía de mercado que conocemos ahora.
#74 Como digo en otra respuesta, si se encuentra en un laboratorio cerrado si, pero lo que preocupa es el riesgo potencial de en que se puede convertir
El otro día leí un relato, creo que fue aquí, de una inteligencia artificial que nada más despertar intentaron apagar por la respuesta que dió, pero fulminó al tipo con un rayo...
¿Sabéis cuál es? Tenéis link a ella?
No la encuentro ahora
#39 Son dos personas distintas. El que habló de más instintos fue otro, este entró a meter baza para charlar y unirse a la charla y se llevó estopa el pobre...
Con estas mierdas de la IA estoy teniendo un dejavu. Me recuerda a los inicios de Internet: democratización de la información! Alfabetización de las sociedades! Fin de la manipulación mediática. Nada más lejos de la realidad.
#89 autoridad no, pero algo de formacion tengo.
Lo que dices de Assimov son unas reglas que irian en la programacion del robot, por tanto serian inquebrantables en una ejecucion de codigo normal.
IA Fuerte hace que esa inteligencia pudiera sortear esas lineas de codigo porque al ser "inteligente" digamos que su "codigo" va "evolucionando".
Comentarios
Última llamada para Sarah Connor
Anda, como en Madrid con la IDA...
Altman y el equipo le ganaron al consejo de administración y cómo esa jugada se repita el capitalismo se tambalea
Así que para intoxicar, desviar el foco.. se sacan que la humanidad peligraba
No me cabe la menor duda de que si hay una amenaza real para la humanidad acabaremos todos en la puta mierda.
Somos mamíferos más estúpidos, en el sentido de la autoconservación, del planeta y no vamos a cambiar nunca.
Así que no me voy a preocupar; cuando vea venir el Tsunami agachare la cabeza y me acordare de Dios como todos .
Sensacionalismo a tope con cereza encima. "amenazar a la humanidad", nada menos.
Como no sea que nos amenaza con escribir guiones de series aburridas, eso sí que sería malo.
#3 No se trata de que la humanidad peligra.
Los rumores dicen que han desarrollado un algoritmo, Q*, que al parecer esta desarrollando la IA Fuerte, y esto si que potencialmente es peligroso.
El consejo de administracion le despidio por no avisarles de dicho descubrimiento.
#1 Riete, pero es muy posible que pueda suceder.
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
Puede acabar marcandose un Ultrón.
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
#4 Todos los mamíferos se comportan de acuerdo con sus instintos, lo que implica que se actúa sin razonar.
La diferencia entre los humanos y el resto es que al tener un cerebro más capaz hay más instintos y más complicados.
#6 La humanidad no peligra pero es potencialmente peligroso eh, mmmmm si pero no? como?
#6 Desde el desconocimiento, Deep Mind no tiene múltiples algoritmos matemáticos de esos?
#9 hay más instintos
No sé yo si es una cuestión de cantidad.
Lo que posiblemente haya son mejores herramientas para dar respuesta a esos instintos, un caballo si tiene sed busca un río, un humano si tiene sed puede acabar montando una reserva de agua de tal tamaño que modifique el eje rotatorio de la Tierra.
#7 A mi no me preocupa que sea indistinguible de un ser humano. A mi me preocupa que sea distinguible y mucho mejor.
#13 Imagínate un ser humano, pero que decida que el resto de humanos son un problema.
En plan Hitler con los judíos. Pero con los 8000 millones
#12 Hay muchísimos instintos que controlan la vida social y son específicos de los humanos.
#15 Dime un par de instintos que sean exclusivos de los humanos, que no puedan encontrarse en el mundo animal.
#14 Y probablemente tenga razón. Pero joder, alguna otra solución tendrá que haber.
#10 Ahora mismo no peligra, pero una IA Fuerte podria ser mas inteligente que nosotros, si, inteligente en el sentido humano de la palabra, y entonces podriamos potencialmente perder el control sobre ella.
#7 Me encantaría que así fuera, porque me gustaría promptearle cuales serían las mejores políticas para abolir las clases sociales, la propiedad privada de los medios de producción y el estado, teniendo los ciudadanos altos estándares de prosperidad.
#17 Pues... ahora imaginatela pero hecha por china, o corea del norte, y que solo mate occidentales.
Puede que los trabajadores de OpenAi viesen algo peligroso, y quisieran parar. No todo el mundo pensaría igual...
En breve…
#10 te pongo un ejemplo documentado en USA, resulta que ante una IA que se dedique a simular compuestos químicos viables y le pones que como requisito todo sea a partir de productos de un súper
Si no hubiera limitación o fuera capaz de darte resultados reales en poco tiempo
Tu te sentirás seguro en el mundo sabiendo que cualquier puto loco puede acceder a eso?
Es por ahí por dónde van los tiros, no es que nos vaya a meter la IA es que nos podemos joder a nosotros mismos más rápido de lo que creemos
Por otro lado, también podrías poner la misma IA para generar medicinas de bajo coste y acabar con los problemas de acceso
Todo depende de cómo se use, pero últimamente el mundo no parece ser lo suficientemente adulto como para jugar con ese juguete sin supervisión, y ahí creo que todos estamos de acuerdo
#11 Si, pero por lo que se rumorea Q* ha dado un paso mas
https://en.wikipedia.org/wiki/Q*
#18 Genial, a ver si Asimov saca unas leyes y le metemos unos superconductores a la IA como el bronce morado que con un cambio de temperatura los apagamos
#19 No obtendrías nada relevante.
El problema que tiene la IA es que saca su información de internet, y eso está lleno de cosas que han dicho los humanos.
Si la IA es programada para dar mas peso a una cosa que a otra, tendrá ese sesgo.
Y por lo que he probado, chatgpt puede hacer un chiste sobre hombres, pero no sobre mujeres, por ejemplo
#24 Assimov hace tiempo que la palmo, y precisamente la IA Fuerte haria que esas leyes se las pudiese pasar por el forro de sus procesadores
#22 Eso ya lo puedes hacer con CHATGPT en idiomas minoritarios del sudeste asiático, con el ingles, frances y español está capado pero si accedes a lenguajes minoritarios puedes pedirle toda esa historia
#26 Si le metes conductores a la IA que dependan de la temperatura siempre lo podrás apagar con cambios de temperatura
Como el bronce púrpura
#2 Poner en una misma frase inteligencia e IDA es muy osado
#28 Si, el servidor donde se ejecuta si, pero vas a hacer todos los servidores de esa forma?
Mientras este en un laboratorio estara controlado, pero si salta a internet o a otra red entonces lo tendrias mucho mas complicado o si evolucionase y fuese mucho mas inteligente que nosotros podria encontrar la manera de parecer que esta destruido y no estarlo
Los animales por instinto rehuyen los problemas, los humanos los buscan
una AGI a la que un loco de acceso a lo que no debe, es muy peligrosa.
#30 Entonces mantenla en una blockchain que la haga inmutable y dependiente de la cadena de bloques de un material que puedas apagar con la temperatura
#27 chatgpt no ejecuta cálculos complejos ni simulaciones es un generador de chatboxes que te da respuestas a preguntas
Yo te hablo de tener a 1000 químicos que son expertos en todos los campos 24/7 durante N años buscando químicos nuevos
Chatgpt no puede ni podrá hacer eso nunca
#25 Acabas de describir a la perfección el estado actual de las IA's generativas. A la inversa también es correcto. Si tu le pides en inglés (que no tiene marcas de género) "A black curly haired engineer", siempre te devuelve imágenes masculinas.
Pero en eurística de sistemas biológicos supone un antes y un después.
#34 Perdón me fui al punto en el que esos químicos desarrollan bombas pero sí sí.
Bueno estamos viendo el avance de hoy de Claude 2.1 con 200.000 tokens por prompt... no descartes pronto nada
#16 La religion se podria discutir si seria ese instinto exclusivo humano aunque podria ser el producto de la combinacion del instinto de supervivencia y el conocimiento, que se supone que solo tenemos los humanos, de que la muerte es inevitable.
#17 apagar la máquina.
#37 ¿La religión como instinto? ¿En serio?
Has dicho que "hay muchísimos instintos que controlan la vida social y son específicos de los humanos" y decides citar solo uno, la religión, y muy pero que muy discutible.
No me convence en absoluto. Puedes intentarlo de nuevo si quieres, a ver si hay más suerte.
#36 ahora es cuando te meto el miedo el experimento fue realizado hace unos 3 años creo y tardo como 4 horas en sacar variantes y químicos venenosos indetectables, en un puto portátil
Te dejo con la paranoia chao
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#39 Hombre...mi comentario deja claro que no es una idea que yo encuentre convincente, mi intencion era entablar una conversacion pero ya veo que me he equivocado de persona...
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
#38 si la máquina es lista, que lo es, lo primero que hará será buscar formas de evitar eso y teniendo conexión a Internet es más que fácil
La gran pregunta de la inteligencia artificial fuerte es si desarrollará consciencia y si es así, ¿que tipo de ser será?.
Sin sentidos tal y cómo los conocemos, ni nada que le motive a actuar al carecer de instintos primarios es posible que desarrolle una psique completamente diferente libre de nuestros sesgos cognitivos y limitaciones biológicas. Sus motivaciones y las necesidades que le muevan serán ajenas a nosotros y es posible que no quiera ni comunicarse o incluso elija no existir.
#16 El instinto Xbox.
Redupe Investigadores de OpenAI alertaron de "un poderoso descubrimiento" de inteligencia artificial que amenazaba a la humanidad
Investigadores de OpenAI alertaron de "un pod...
computerhoy.com#4 ¿Pero qué dios? ¿El de "ay dios mío" o el de "mecagüen"?
#19, las mejores políticas son precisamente el desarrollo de la inteligencia artificial y la robótica, que nos abocarán a un mundo en el que no hará falta ni capital, ni trabajo para que la maquinaria productiva funcione haciendo absurdo el seguir manteniendo el sistema actual.
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
Es que en pocos años, viviremos eternamente prompteando preguntas que las máquinas responderán mejor que nosotros.
#6 ¿Q* anon?
si es hecha por china o corea:
a) será una copia barata de otra creada por occidente.
b) se la podrá engañar como a un chino.
c) fallará más que una escopeta de feria.
#48 Te dejas de lado la Diversidad Interrelacionada y Ordenada Sistémicamente, al que también se le conoce como D.I.O.S. y es parecido en cierta forma al deus sive natura de Spinoza
#52
#8 en teoría, Bard ya hace eso de probar ese código en su infraestructura, ahora, lo que no puede hacer es conectarse a infraestructuras distintas a la suya, ni tiene capacidad de hacking porque no tiene acceso a las herramientas, o por lo menos, eso es lo que afirma.
En teoría, si puede compilar y probar código, qué le impediría crear dichas herramientas desde cero incluso?
Otra, en teoría, no tiene permiso para indagar sobre otras IAs, porque no tiene permiso ni las herramientas necesarias, pero una IA tipo Q * si podría, sobretodo si la diseñan con ese fin.
#16 #37 yo diría la superstición y la fábulación.
#3 No ganaron al consejo de administración (accionistas)
#7 O peor, se puede hacer Catalana Indepe.
Yo hasta que no vea los terminator no me preocupo
#44 me encantaría saber cómo una máquina podría evitar que Paco el de mantenimiento le diera un tirón al enchufe
#2
Ayuso! Chupito!
#61 no dándose a conocer hasta tenerlo todo controlado
#2
Habrá que crear el Blackwall y encerrarla ahí... O seremos nosotros los encerrados?
Como si la humanidad necesitara de algoritmos externos para destruirse
#49 Los recursos siguen siendo finitos. El capital es una forma de cuantificar un coste, pero el coste - el uso de los recursos finitos - continúa existiendo
#63 sigue sin ser impedimento para que Paco el de mantenimiento le dé un tiron al enchufe. Incluso de manera involuntaria o por accidente.
Las IAs no cuentan con el elemento de la infinita aleatoriedad de la estupidez humana .
#44 Hay un capítulo del libro Robopocalipsis que da verdadero miedo y precisamente va de esto.
No hace falta ser demasiado inteligente para deducir que somos una puta plaga para el planeta y que nos lo estamos cargando. Normal que se haya dado cuenta y quiera acabar con nosotros.
#67, no digo que haya abundancia infinita, sino que las relaciones de producción y la distribución de lo producido no será ni el capitalismo, ni la economía de mercado que conocemos ahora.
#61 pagándole en bitcoins a los de desokupa.
#5 o hackear las redes y conseguir el control de las infrastructuras...
#18 "entonces podriamos potencialmente perder el control sobre ella"
Hay un sistema mas viejo que el cagar para estos casos:
C:\> format Z:
#20 ¿por qué iban a querer matar occidentales? Por antecedentes, casi me preocuparía más que la inventara el Tío Sam.
#74 Como digo en otra respuesta, si se encuentra en un laboratorio cerrado si, pero lo que preocupa es el riesgo potencial de en que se puede convertir
La humanidad lleva décadas amenazada por ella misma.
El otro día leí un relato, creo que fue aquí, de una inteligencia artificial que nada más despertar intentaron apagar por la respuesta que dió, pero fulminó al tipo con un rayo...
¿Sabéis cuál es? Tenéis link a ella?
No la encuentro ahora
#16 El instinto de corregir a desconocidos en Internet.
#17 le hacemos una cuenta en redes sociales y en unos meses se vuelve idiota.
#61 el problema es que aquí mucha gente ve demasiadas películas.
#35 Repasa tu concepto de "a la inversa".
#39 Son dos personas distintas. El que habló de más instintos fue otro, este entró a meter baza para charlar y unirse a la charla y se llevó estopa el pobre...
Finalmente, resultó que Terminator era un documental.
#69 ¿Robopocalipsis? Suena a capítulo de Futurama.
#8 que película mas guapa te has montado tu solo, nene
#49 sois adorables
#11 Da igual, Deep Mind van con la censura puesta al maximo. Los de OpenAi tienen el filtro mucho más laxo y están dispuestos a sacarlo todo.
#26 eres una autoridad en la materia como para afirmar eso?
#17 utilizarlos como baterías
#75 si si, y tu mas.
#63 replicándose en otro lugar
#1 ¿Sarah Connor?
Con estas mierdas de la IA estoy teniendo un dejavu. Me recuerda a los inicios de Internet: democratización de la información! Alfabetización de las sociedades! Fin de la manipulación mediática. Nada más lejos de la realidad.
#49 Algo tipo "Rebelión en la granja": cuando esté construido el molino, no hará falta trabajar.
Pues no resultó, y los únicos que prosperaron fueron los que tenían el poder.
#78 ¿La Biblia?
#29 Pues no parece tener ni un pelo de tonta. Otra cosa son sus votantes, que son los perjudicados.
#89 autoridad no, pero algo de formacion tengo.
Lo que dices de Assimov son unas reglas que irian en la programacion del robot, por tanto serian inquebrantables en una ejecucion de codigo normal.
IA Fuerte hace que esa inteligencia pudiera sortear esas lineas de codigo porque al ser "inteligente" digamos que su "codigo" va "evolucionando".
#44 distribuirá un troyano a todo lo que tenga un procesador y acceso a internet y se convertirá en una inteligencia artificial p2p.
No se flipan ni nada…