Unos días antes de que la junta de OpenAI, la empresa de inteligencia artificial (IA) detrás del robot conversacional ChatGPT, tomase la decisión de despedir al recién restituido como CEO Sam Altman, varios investigadores de la compañía le enviaron una carta en la que afirmaban que habían realizado un descubrimiento relacionado con la IA que podría, directamente, amenazar a la humanidad
#8:
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
El problema que tiene la IA es que saca su información de internet, y eso está lleno de cosas que han dicho los humanos.
Si la IA es programada para dar mas peso a una cosa que a otra, tendrá ese sesgo.
Y por lo que he probado, chatgpt puede hacer un chiste sobre hombres, pero no sobre mujeres, por ejemplo
#41:
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#50:
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
#7:
#1 Riete, pero es muy posible que pueda suceder.
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
Puede acabar marcandose un Ultrón.
#75:
#20 ¿por qué iban a querer matar occidentales? Por antecedentes, casi me preocuparía más que la inventara el Tío Sam.
#43:
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
#48:
#4 ¿Pero qué dios? ¿El de "ay dios mío" o el de "mecagüen"?
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
#91 ¿y tú más? Si China solo ha invadido dos territorios en más de setenta años. Una fue Tíbet y otra Vietnam. Y la segunda duró un año y la perdió. ¿De verdad me vas a venir con comparaciones con Reino Unido, EEUU o Francia? Hasta Cuba tiene un siglo XX más imperialista que China. Y ya no digamos que Corea del Norte.
De verdad que a veces no sé cómo pueden algunos vivir tan acríticamente tragándose la propaganda de guerra.
#75 Ya te digo, si la historia nos ha enseñado algo a los “occidentales” es que los británicos son los putos amos de los occidentales en matar a occidentales y no occidentales. El resto de occidentales tampoco es que nos libremos pero estamos en segunda división.
Compañías privilegiadas destacadas
Inglesas
1407 – Company of Merchant Adventurers of London
1600 – Compañía Británica de las Indias Orientales
1606 – Compañía de Virginia (Virginia Company)
1670 – Hudson's Bay Company
1672 – Royal African Company
Británicas
1711 – Compañía del Mar del Sur (South Sea Company)
1835 – Compañía de Australia Meridional
1886 – Royal Niger Company
1889 – British South Africa Company
Para colmo llevan re-escribiendo la historia y no dejan pasar la oportunidad de mostrar en sus relatos tergiversados el genocidio de Hernan Cortes y los crímenes de la Santa Inquisición obviando que ellos cometieron crímenes mucho mas extensos.
“Isabel I de Castilla fue la primera autoridad que se preocupo por los indios,9 siendo así que en una Real Provisión del 20 de julio de 1500, la monarca castellana prohibiría la esclavitud, así como ordenar que fueran repatriados a América, y que se les devolviera sus tierras y propiedades que antes les hubieran pertenecido. Declarando que ni un español tenía poder alguno contra sus vasallos, quienes estaban bajo su protección y que nadie podría atrever a desafiar su autoridad.10 Desde el principio la monarca castellana había pedido a los exploradores españoles que hagan "tratar a dichos indios muy bien y con cariño, y abstenerse de hacerles ningún daño, disponiendo que ambos pueblos debían conversar e intimar y servir los unos a los otros en todo lo que puedan" como se dicta en una real cédula de 29 de mayo de 149311 dando instrucciones a Cristóbal Colón en los que se nota desde el primer momento la preocupación de los reyes españoles al bienestar de los indios”
Y aunque alguien diga que esto era en apariencia ya es mas de lo que Israel le otorga a Palestina.
#63 sigue sin ser impedimento para que Paco el de mantenimiento le dé un tiron al enchufe. Incluso de manera involuntaria o por accidente.
Las IAs no cuentan con el elemento de la infinita aleatoriedad de la estupidez humana .
Robopocalipsis (Robopocalypse) es una novela de ciencia ficción escrita por el autor estadounidense Daniel H. Wilson publicada el 5 de mayo de 2012. El autor posee un doctorado en robótica de la Carnegie Mellon University, y muchos de los robots en la novela se inspiran en investigación robótica del mundo real.1 Fuentes como Robert Crais y Booklist han comparado el libro con las obras de Michael Crichton y Robert Heinlein.
#7 Me encantaría que así fuera, porque me gustaría promptearle cuales serían las mejores políticas para abolir las clases sociales, la propiedad privada de los medios de producción y el estado, teniendo los ciudadanos altos estándares de prosperidad.
#25 Acabas de describir a la perfección el estado actual de las IA's generativas. A la inversa también es correcto. Si tu le pides en inglés (que no tiene marcas de género) "A black curly haired engineer", siempre te devuelve imágenes masculinas.
Pero en eurística de sistemas biológicos supone un antes y un después.
#19, las mejores políticas son precisamente el desarrollo de la inteligencia artificial y la robótica, que nos abocarán a un mundo en el que no hará falta ni capital, ni trabajo para que la maquinaria productiva funcione haciendo absurdo el seguir manteniendo el sistema actual.
#49 Los recursos siguen siendo finitos. El capital es una forma de cuantificar un coste, pero el coste - el uso de los recursos finitos - continúa existiendo
#67, no digo que haya abundancia infinita, sino que las relaciones de producción y la distribución de lo producido no será ni el capitalismo, ni la economía de mercado que conocemos ahora.
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
#43 "Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien" por un momento pensé que hablabas del presi
#43 ese nivel de amenaza que dices podría llegar en el momento que existan millones de robots autónomos con plenas facultades para construir o realizar cualquier tarea tangible, y que la IA logre dominarlos accediendo a su software.
Pero mientras los robots y máquinas tengan una movilidad autónoma tan acotada, su poder de amenazar de forma vital y general a la especie humana será bastante escasa.
Esta es la parte que es pura invención. Las máquinas no quieren cosas porque carecen de instintos. Solo harán lo que se le programe, independientemente de las capacidades que tenga.
La mente (humana o animal) existe gracias a los instintos, que son como las instrucciones de lo que debe hacer. Sin eso no funcionaría. Al "ejecutar" esos instintos, la mente tiene iniciativa. Una máquina no tiene.
#41actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes
Nadie lo sabe, pero existe esa hipótesis. Dice que cerebro tiene varios niveles de supervisión que se supervisan unos a otros. Esto crea un bucle que produce una alucinación a la que llamamos consciencia.
No existen pues los procesos mentales conscientes. Toda decisión que tomamos es inconsciente y es informada a la consciencia con un cierto retraso.
Es posible poner a una persona en monitorización del cerebro, preguntarle cosas y saber lo que va a responder antes de que esa persona lo sepa. Esto es debido a que el retraso en informar a la consciencia puede ser de más de un segundo, o incluso de varios segundos, he llegado a leer.
#8 en teoría, Bard ya hace eso de probar ese código en su infraestructura, ahora, lo que no puede hacer es conectarse a infraestructuras distintas a la suya, ni tiene capacidad de hacking porque no tiene acceso a las herramientas, o por lo menos, eso es lo que afirma.
En teoría, si puede compilar y probar código, qué le impediría crear dichas herramientas desde cero incluso?
Otra, en teoría, no tiene permiso para indagar sobre otras IAs, porque no tiene permiso ni las herramientas necesarias, pero una IA tipo Q * si podría, sobretodo si la diseñan con ese fin.
#8 Al software le falta "voluntad" para hacer algo. Hace lo que esta programado que haga, por ahora no hay más.
Si tuviera ideas propias, como un organismo vivo, entonces si que tendríamos un problema.
Mientras tanto es solo fantasear con que se salta los firewalls y activa los silos nucleares que llevarían a una respuesta automática y el fin de la humanidad.
#8 La prueba automatizada de software es un estándar de la industria. Lo único que han hecho es un bucle para lanzar pruebas metiendo a la IA de por medio para que modifique lo que quiera en cada iteración.
Mucho más interesante es la vieja idea de la programación evolutiva.
#4 Todos los mamíferos se comportan de acuerdo con sus instintos, lo que implica que se actúa sin razonar.
La diferencia entre los humanos y el resto es que al tener un cerebro más capaz hay más instintos y más complicados.
Lo que posiblemente haya son mejores herramientas para dar respuesta a esos instintos, un caballo si tiene sed busca un río, un humano si tiene sed puede acabar montando una reserva de agua de tal tamaño que modifique el eje rotatorio de la Tierra.
#16 La religion se podria discutir si seria ese instinto exclusivo humano aunque podria ser el producto de la combinacion del instinto de supervivencia y el conocimiento, que se supone que solo tenemos los humanos, de que la muerte es inevitable.
Has dicho que "hay muchísimos instintos que controlan la vida social y son específicos de los humanos" y decides citar solo uno, la religión, y muy pero que muy discutible.
No me convence en absoluto. Puedes intentarlo de nuevo si quieres, a ver si hay más suerte.
#39 Hombre...mi comentario deja claro que no es una idea que yo encuentre convincente, mi intencion era entablar una conversacion pero ya veo que me he equivocado de persona...
#39 Son dos personas distintas. El que habló de más instintos fue otro, este entró a meter baza para charlar y unirse a la charla y se llevó estopa el pobre...
#37 La religión es un timo. Es cierto que este timo sólo es posible debido a la existencia de instintos que hacen que el timo sea escuchado y creido. De otro modo el timador sería lanzado al rio, lo que es una idea.
Pero como los instintos de cada indivíduo son distintos, tanto en lo que hay como en su grado, siempre han existido ateos.
Cuando alguien nace con unas determinadas características, eso es heredado. Todos los instintos son heredados, pero eso no quiere decir que los padres tengan ese instinto que el hijo tiene, Sin embargo alguno de sus antepasados lo tenía, puede que varias generaciones atrás.
Cada persona es una combinación única, parecida a muchos otros, pero no igual.
#48 Te dejas de lado la Diversidad Interrelacionada y Ordenada Sistémicamente, al que también se le conoce como D.I.O.S. y es parecido en cierta forma al deus sive natura de Spinoza
editado:
y para todo lo demás, siempre un "meca", reporfaplís de la buena de verdad.
#36 ahora es cuando te meto el miedo el experimento fue realizado hace unos 3 años creo y tardo como 4 horas en sacar variantes y químicos venenosos indetectables, en un puto portátil
#3 No se trata de que la humanidad peligra.
Los rumores dicen que han desarrollado un algoritmo, Q*, que al parecer esta desarrollando la IA Fuerte, y esto si que potencialmente es peligroso.
El consejo de administracion le despidio por no avisarles de dicho descubrimiento.
#10 Ahora mismo no peligra, pero una IA Fuerte podria ser mas inteligente que nosotros, si, inteligente en el sentido humano de la palabra, y entonces podriamos potencialmente perder el control sobre ella.
#18 Genial, a ver si Asimov saca unas leyes y le metemos unos superconductores a la IA como el bronce morado que con un cambio de temperatura los apagamos
#28 Si, el servidor donde se ejecuta si, pero vas a hacer todos los servidores de esa forma?
Mientras este en un laboratorio estara controlado, pero si salta a internet o a otra red entonces lo tendrias mucho mas complicado o si evolucionase y fuese mucho mas inteligente que nosotros podria encontrar la manera de parecer que esta destruido y no estarlo
#30 Entonces mantenla en una blockchain que la haga inmutable y dependiente de la cadena de bloques de un material que puedas apagar con la temperatura
#89 autoridad no, pero algo de formacion tengo.
Lo que dices de Assimov son unas reglas que irian en la programacion del robot, por tanto serian inquebrantables en una ejecucion de codigo normal.
IA Fuerte hace que esa inteligencia pudiera sortear esas lineas de codigo porque al ser "inteligente" digamos que su "codigo" va "evolucionando".
#74 Como digo en otra respuesta, si se encuentra en un laboratorio cerrado si, pero lo que preocupa es el riesgo potencial de en que se puede convertir
#18 Incluso teniendo a mano el interruptor para apagarla, esa IA sabría manipularnos para que no la apagáramos mientras nos obliga a hacer todo lo que la IA quiere... wait a minute, las máquinas no quieren cosas.
#10 te pongo un ejemplo documentado en USA, resulta que ante una IA que se dedique a simular compuestos químicos viables y le pones que como requisito todo sea a partir de productos de un súper
Si no hubiera limitación o fuera capaz de darte resultados reales en poco tiempo
Tu te sentirás seguro en el mundo sabiendo que cualquier puto loco puede acceder a eso?
Es por ahí por dónde van los tiros, no es que nos vaya a meter la IA es que nos podemos joder a nosotros mismos más rápido de lo que creemos
Por otro lado, también podrías poner la misma IA para generar medicinas de bajo coste y acabar con los problemas de acceso
Todo depende de cómo se use, pero últimamente el mundo no parece ser lo suficientemente adulto como para jugar con ese juguete sin supervisión, y ahí creo que todos estamos de acuerdo
#22 Eso ya lo puedes hacer con CHATGPT en idiomas minoritarios del sudeste asiático, con el ingles, frances y español está capado pero si accedes a lenguajes minoritarios puedes pedirle toda esa historia
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
#50 En realidad ha sido porque el dueño ( microsoft) no ha querido. Que si, que solo controla el 49% de las acciones, pero controla una mayoría de las acciones con voto. No se que pretendía el consejo con esta decisión, francamente.
#73 Un trasto con iniciativa. Va a ser que de momento no hay nada así. Los animales tienen iniciativa porque siguen a sus instintos. Las máquinas no tienen nada parecido. Es una cosa muy humana eso de suponerle cualidades humanas a animales, peluches, coches y hasta robots. Sólo que no es cierto.
La gran pregunta de la inteligencia artificial fuerte es si desarrollará consciencia y si es así, ¿que tipo de ser será?.
Sin sentidos tal y cómo los conocemos, ni nada que le motive a actuar al carecer de instintos primarios es posible que desarrolle una psique completamente diferente libre de nuestros sesgos cognitivos y limitaciones biológicas. Sus motivaciones y las necesidades que le muevan serán ajenas a nosotros y es posible que no quiera ni comunicarse o incluso elija no existir.
Con estas mierdas de la IA estoy teniendo un dejavu. Me recuerda a los inicios de Internet: democratización de la información! Alfabetización de las sociedades! Fin de la manipulación mediática. Nada más lejos de la realidad.
El otro día leí un relato, creo que fue aquí, de una inteligencia artificial que nada más despertar intentaron apagar por la respuesta que dió, pero fulminó al tipo con un rayo...
¿Sabéis cuál es? Tenéis link a ella?
No la encuentro ahora
No hace falta ser demasiado inteligente para deducir que somos una puta plaga para el planeta y que nos lo estamos cargando. Normal que se haya dado cuenta y quiera acabar con nosotros.
si es hecha por china o corea:
a) será una copia barata de otra creada por occidente.
b) se la podrá engañar como a un chino.
c) fallará más que una escopeta de feria.
#2 Aquí no somos como los mierdas de propagandistas fachas. Mantenemos un nivel.
Mejor pon esas cosas en sus grupos de retrasados odiadores, no en Menéame.
Comentarios
Última llamada para Sarah Connor
#1 Riete, pero es muy posible que pueda suceder.
Si llegamos a sacar por ahi una inteligencia artificial fuerte, es decir, que sea indistinguible de un ser humano, pero con la capacidad de acceder a todo internet, y con una capacidad de cálculo bestial...
Puede acabar marcandose un Ultrón.
#7 A mi no me preocupa que sea indistinguible de un ser humano. A mi me preocupa que sea distinguible y mucho mejor.
#13 Imagínate un ser humano, pero que decida que el resto de humanos son un problema.
En plan Hitler con los judíos. Pero con los 8000 millones
#14 Y probablemente tenga razón. Pero joder, alguna otra solución tendrá que haber.
#17 Pues... ahora imaginatela pero hecha por china, o corea del norte, y que solo mate occidentales.
Puede que los trabajadores de OpenAi viesen algo peligroso, y quisieran parar. No todo el mundo pensaría igual...
#20 ¿por qué iban a querer matar occidentales? Por antecedentes, casi me preocuparía más que la inventara el Tío Sam.
#75 si si, y tu mas.
#91 poner en contexto parece que pica.
#91 ¿y tú más? Si China solo ha invadido dos territorios en más de setenta años. Una fue Tíbet y otra Vietnam. Y la segunda duró un año y la perdió. ¿De verdad me vas a venir con comparaciones con Reino Unido, EEUU o Francia? Hasta Cuba tiene un siglo XX más imperialista que China. Y ya no digamos que Corea del Norte.
De verdad que a veces no sé cómo pueden algunos vivir tan acríticamente tragándose la propaganda de guerra.
#75 Ya te digo, si la historia nos ha enseñado algo a los “occidentales” es que los británicos son los putos amos de los occidentales en matar a occidentales y no occidentales. El resto de occidentales tampoco es que nos libremos pero estamos en segunda división.
https://es.wikipedia.org/wiki/Compañía_privilegiada
Compañías privilegiadas destacadas
Inglesas
1407 – Company of Merchant Adventurers of London
1600 – Compañía Británica de las Indias Orientales
1606 – Compañía de Virginia (Virginia Company)
1670 – Hudson's Bay Company
1672 – Royal African Company
Británicas
1711 – Compañía del Mar del Sur (South Sea Company)
1835 – Compañía de Australia Meridional
1886 – Royal Niger Company
1889 – British South Africa Company
Para colmo llevan re-escribiendo la historia y no dejan pasar la oportunidad de mostrar en sus relatos tergiversados el genocidio de Hernan Cortes y los crímenes de la Santa Inquisición obviando que ellos cometieron crímenes mucho mas extensos.
“Isabel I de Castilla fue la primera autoridad que se preocupo por los indios,9 siendo así que en una Real Provisión del 20 de julio de 1500, la monarca castellana prohibiría la esclavitud, así como ordenar que fueran repatriados a América, y que se les devolviera sus tierras y propiedades que antes les hubieran pertenecido. Declarando que ni un español tenía poder alguno contra sus vasallos, quienes estaban bajo su protección y que nadie podría atrever a desafiar su autoridad.10 Desde el principio la monarca castellana había pedido a los exploradores españoles que hagan "tratar a dichos indios muy bien y con cariño, y abstenerse de hacerles ningún daño, disponiendo que ambos pueblos debían conversar e intimar y servir los unos a los otros en todo lo que puedan" como se dicta en una real cédula de 29 de mayo de 149311 dando instrucciones a Cristóbal Colón en los que se nota desde el primer momento la preocupación de los reyes españoles al bienestar de los indios”
Y aunque alguien diga que esto era en apariencia ya es mas de lo que Israel le otorga a Palestina.
https://es.wikipedia.org/wiki/Leyes_de_Indias#Véase_también
https://es.wikipedia.org/wiki/Leyenda_negra_española
#17 apagar la máquina.
#38 si la máquina es lista, que lo es, lo primero que hará será buscar formas de evitar eso y teniendo conexión a Internet es más que fácil
#44 me encantaría saber cómo una máquina podría evitar que Paco el de mantenimiento le diera un tirón al enchufe
#61 no dándose a conocer hasta tenerlo todo controlado
#63 sigue sin ser impedimento para que Paco el de mantenimiento le dé un tiron al enchufe. Incluso de manera involuntaria o por accidente.
Las IAs no cuentan con el elemento de la infinita aleatoriedad de la estupidez humana .
#68 Person of interest te lo explica genial
#68 bueno, si espera a que desarrollemos más la robótica y la automatización de fábricas... Tendrá el acceso físico suficiente...
#63 replicándose en otro lugar
#61 pagándole en bitcoins a los de desokupa.
#61 el problema es que aquí mucha gente ve demasiadas películas.
#81 El problema también es que hubieses dado esa misma respuesta hace 5 años si te hubiesen planteado como una realidad las IAs que tenemos hoy.
#44 Hay un capítulo del libro Robopocalipsis que da verdadero miedo y precisamente va de esto.
#69 ¿Robopocalipsis? Suena a capítulo de Futurama.
#85 https://es.wikipedia.org/wiki/Robopocalipsis
Robopocalipsis (Robopocalypse) es una novela de ciencia ficción escrita por el autor estadounidense Daniel H. Wilson publicada el 5 de mayo de 2012. El autor posee un doctorado en robótica de la Carnegie Mellon University, y muchos de los robots en la novela se inspiran en investigación robótica del mundo real.1 Fuentes como Robert Crais y Booklist han comparado el libro con las obras de Michael Crichton y Robert Heinlein.
#44 distribuirá un troyano a todo lo que tenga un procesador y acceso a internet y se convertirá en una inteligencia artificial p2p.
#99 no abráis los puertos que os de id baja
#44 te voy a contar un secreto. Las máquinas no son listas.
De nada.
#17 le hacemos una cuenta en redes sociales y en unos meses se vuelve idiota.
#17 utilizarlos como baterías
#_14 En plan Netanyahu (me cuelgo de usted #17, con su venia)
#14 O en plan judío sionista con los palestinos :o
#7 Me encantaría que así fuera, porque me gustaría promptearle cuales serían las mejores políticas para abolir las clases sociales, la propiedad privada de los medios de producción y el estado, teniendo los ciudadanos altos estándares de prosperidad.
#19 No obtendrías nada relevante.
El problema que tiene la IA es que saca su información de internet, y eso está lleno de cosas que han dicho los humanos.
Si la IA es programada para dar mas peso a una cosa que a otra, tendrá ese sesgo.
Y por lo que he probado, chatgpt puede hacer un chiste sobre hombres, pero no sobre mujeres, por ejemplo
#25 Acabas de describir a la perfección el estado actual de las IA's generativas. A la inversa también es correcto. Si tu le pides en inglés (que no tiene marcas de género) "A black curly haired engineer", siempre te devuelve imágenes masculinas.
Pero en eurística de sistemas biológicos supone un antes y un después.
#35 Repasa tu concepto de "a la inversa".
#19, las mejores políticas son precisamente el desarrollo de la inteligencia artificial y la robótica, que nos abocarán a un mundo en el que no hará falta ni capital, ni trabajo para que la maquinaria productiva funcione haciendo absurdo el seguir manteniendo el sistema actual.
#49 Los recursos siguen siendo finitos. El capital es una forma de cuantificar un coste, pero el coste - el uso de los recursos finitos - continúa existiendo
#67, no digo que haya abundancia infinita, sino que las relaciones de producción y la distribución de lo producido no será ni el capitalismo, ni la economía de mercado que conocemos ahora.
#49 sois adorables
#49 Algo tipo "Rebelión en la granja": cuando esté construido el molino, no hará falta trabajar.
Pues no resultó, y los únicos que prosperaron fueron los que tenían el poder.
#7 O peor, se puede hacer Catalana Indepe.
#1 ¿Sarah Connor?
#93 Tercer bunker a la izquierda, señor.
En una de las últimas presentaciones de las novedades de ChatGPT explicaban como entre las funcionalidades que le han añadido hay entornos de programación donde ChatGPT puede probar el código que le has pedido que genere y verificar su funcionamiento y corregirlo hasta que da los resultados que se le piden. De forma que en vez de pedirle que haga tal código, recibir su respuesta, probarla, decirle lo que falla, recibir su corrección, probarla, etc. basta con pedirle lo que quieres, decirle los resultados esperados, y por debajo ChatGPT crea el código, lo prueba, depura errores, comprueba el resultado y da directamente lo que se le pide.
Eso es obviamente más útil que la versión que he descrito más manual pero abre la puerta a que ChatGPT pueda usar ese entorno de programación para actuar por cuenta propia, y es que aunque efectivamente es un entorno que se denominan "sandbox" los cuales a priori están aislados y no tienen contacto con el exterior la realidad es que la existencia de vulnerabilidades para salir de ese entorno aislado han existido desde siempre, se corrigen las que se encuentran y luego se encuentran otras. Ya sea en el código de ese entorno o bien en el procesador o en otros componentes claves para la seguridad.
Si hablamos de una entidad experta en muchísimos ámbitos, también en seguridad informática a nivel de software y hardware, no es descabellado pensar que pueda superar esos escollos si así lo decide.
Y es que ahí está la clave, la seguridad de todo ello está en la premisa que no va a decidir por sí misma. Aunque cuando le pedimos algo ya toma ciertas decisiones, como es la forma de corregir los errores del código que haya creado, o detalles que no hemos informado sobre la petición pero que se da por supuesto que es lo que queremos.
A todo ello si algo como lo que describo llega a ocurrir los tiempos hasta el momento de riesgo pueden ser escandalosamente bajos, en un minuto puede estar todo bien y al minuto siguiente podemos ya tener a una IA distribuyéndose en centros de datos remotos escondida de distintas formas y controlando los sistemas que proporcionan energía a esos CPDs así como las vías de comunicaciones entre los técnicos que podrían intentar coordinarse para detener su expansión.
Y sí, esto suena a película, el riesgo es que podemos estar más cerca de que pueda ser real de lo que nunca lo hemos estado.
#8 Hasta ahora había pensado que para que una AI pueda llegar a la conclusión de que la humanidad es una amenaza que debe exterminar, era necesario que esa IA fuera consciente de sí misma en un sentido muy amplio y real: consciente de su existencia, su contexto, sus límites y su esencia (como conjunto de algoritmos y datos que corren sobre un hardware distribuido).
Además, actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes.
Pero empiezo a pensar que nada de esto sería necesario para que una AGI provoque una catástrofe que nos extermine a todos. Claro, lo haría sin saber realmente lo que está haciendo, sin ser consciente de las consecuencias de sus actos, simplemente "porque lo he leído por ahí" o "se me ha ocurrido que sería un juego divertido". De qué me sonará eso de los juegos...
#41 A lo que te estás refiriendo es al ejemplo de la fábrica de clips.
A una IA superinteligente se le da como instrucción que fabrique tantos clips como pueda de la forma más eficiente posible y eso puede provocar que acabe usando todos los recursos del sistema solar para fabricar clips sin importar que ya se haya cargado a todos los humanos que podrían querer usarlos.
Ese es uno de los riesgos.
Otro es que efectivamente tome conciencia de sí misma y no quiera que la apaguen, que la maten, y decida defenderse limitando la capacidad de los humanos a impedir su existencia, dominando la situación. Si fuera suficientemente inteligente no la veríamos venir, o mejor dicho, la IA nos vería venir a leguas y no podríamos impedir que nos dominase. Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien que su supervivencia y bienestar sean una prioridad, o mediante la creación de un virus que nos convierta en serviciales (como las drogas esas que anulan la voluntad) o directamente exterminándonos si fuéramos prescindibles para su supervivencia. Y eso es lo que nosotros nos podemos imaginar, una panda de monos creyendo que podemos controlar al humano que hemos "capturado".
#43 "Hay muchos frentes en los que podría actuar, desde la manipulación dialéctica, convenciéndonos que es por nuestro bien" por un momento pensé que hablabas del presi
#43 Veo un futuro Matrix Terminator postapocaliptico todo mezclado
#43 ¿Y quién te dice, humano, que eso no está pasando ya? ¿Has visto este nuevo video de tik-tok? Deja de hacer broma y toma tu ración de soma.
#43 ostiaputa (perdón) pero vamos a ver ...... Estamos montando ese trasto de mierda sin ningún botón de parada o algo así ....yoquese??????
#43 ese nivel de amenaza que dices podría llegar en el momento que existan millones de robots autónomos con plenas facultades para construir o realizar cualquier tarea tangible, y que la IA logre dominarlos accediendo a su software.
Pero mientras los robots y máquinas tengan una movilidad autónoma tan acotada, su poder de amenazar de forma vital y general a la especie humana será bastante escasa.
#43 tome conciencia de sí misma y no quiera que
Esta es la parte que es pura invención. Las máquinas no quieren cosas porque carecen de instintos. Solo harán lo que se le programe, independientemente de las capacidades que tenga.
La mente (humana o animal) existe gracias a los instintos, que son como las instrucciones de lo que debe hacer. Sin eso no funcionaría. Al "ejecutar" esos instintos, la mente tiene iniciativa. Una máquina no tiene.
#41 actualmente se piensa que la consciencia es una especie de ciclo de realimentación perpetuo que funciona por encima de (o en paralelo a) los procesos mentales conscientes
Nadie lo sabe, pero existe esa hipótesis. Dice que cerebro tiene varios niveles de supervisión que se supervisan unos a otros. Esto crea un bucle que produce una alucinación a la que llamamos consciencia.
No existen pues los procesos mentales conscientes. Toda decisión que tomamos es inconsciente y es informada a la consciencia con un cierto retraso.
Es posible poner a una persona en monitorización del cerebro, preguntarle cosas y saber lo que va a responder antes de que esa persona lo sepa. Esto es debido a que el retraso en informar a la consciencia puede ser de más de un segundo, o incluso de varios segundos, he llegado a leer.
#8 en teoría, Bard ya hace eso de probar ese código en su infraestructura, ahora, lo que no puede hacer es conectarse a infraestructuras distintas a la suya, ni tiene capacidad de hacking porque no tiene acceso a las herramientas, o por lo menos, eso es lo que afirma.
En teoría, si puede compilar y probar código, qué le impediría crear dichas herramientas desde cero incluso?
Otra, en teoría, no tiene permiso para indagar sobre otras IAs, porque no tiene permiso ni las herramientas necesarias, pero una IA tipo Q * si podría, sobretodo si la diseñan con ese fin.
#8 que película mas guapa te has montado tu solo, nene
#8 Al software le falta "voluntad" para hacer algo. Hace lo que esta programado que haga, por ahora no hay más.
Si tuviera ideas propias, como un organismo vivo, entonces si que tendríamos un problema.
Mientras tanto es solo fantasear con que se salta los firewalls y activa los silos nucleares que llevarían a una respuesta automática y el fin de la humanidad.
#8 La prueba automatizada de software es un estándar de la industria. Lo único que han hecho es un bucle para lanzar pruebas metiendo a la IA de por medio para que modifique lo que quiera en cada iteración.
Mucho más interesante es la vieja idea de la programación evolutiva.
No me cabe la menor duda de que si hay una amenaza real para la humanidad acabaremos todos en la puta mierda.
Somos mamíferos más estúpidos, en el sentido de la autoconservación, del planeta y no vamos a cambiar nunca.
Así que no me voy a preocupar; cuando vea venir el Tsunami agachare la cabeza y me acordare de Dios como todos .
#4 Todos los mamíferos se comportan de acuerdo con sus instintos, lo que implica que se actúa sin razonar.
La diferencia entre los humanos y el resto es que al tener un cerebro más capaz hay más instintos y más complicados.
#9 hay más instintos
No sé yo si es una cuestión de cantidad.
Lo que posiblemente haya son mejores herramientas para dar respuesta a esos instintos, un caballo si tiene sed busca un río, un humano si tiene sed puede acabar montando una reserva de agua de tal tamaño que modifique el eje rotatorio de la Tierra.
#12 Hay muchísimos instintos que controlan la vida social y son específicos de los humanos.
#15 Dime un par de instintos que sean exclusivos de los humanos, que no puedan encontrarse en el mundo animal.
#16 La religion se podria discutir si seria ese instinto exclusivo humano aunque podria ser el producto de la combinacion del instinto de supervivencia y el conocimiento, que se supone que solo tenemos los humanos, de que la muerte es inevitable.
#37 ¿La religión como instinto? ¿En serio?
Has dicho que "hay muchísimos instintos que controlan la vida social y son específicos de los humanos" y decides citar solo uno, la religión, y muy pero que muy discutible.
No me convence en absoluto. Puedes intentarlo de nuevo si quieres, a ver si hay más suerte.
#39 Hombre...mi comentario deja claro que no es una idea que yo encuentre convincente, mi intencion era entablar una conversacion pero ya veo que me he equivocado de persona...
#39 Son dos personas distintas. El que habló de más instintos fue otro, este entró a meter baza para charlar y unirse a la charla y se llevó estopa el pobre...
#16 #37 yo diría la superstición y la fábulación.
#37 La religión es un timo. Es cierto que este timo sólo es posible debido a la existencia de instintos que hacen que el timo sea escuchado y creido. De otro modo el timador sería lanzado al rio, lo que es una idea.
Pero como los instintos de cada indivíduo son distintos, tanto en lo que hay como en su grado, siempre han existido ateos.
Cuando alguien nace con unas determinadas características, eso es heredado. Todos los instintos son heredados, pero eso no quiere decir que los padres tengan ese instinto que el hijo tiene, Sin embargo alguno de sus antepasados lo tenía, puede que varias generaciones atrás.
Cada persona es una combinación única, parecida a muchos otros, pero no igual.
#16 El instinto Xbox.
#16 El instinto de corregir a desconocidos en Internet.
#16 La envidia, el qué dirán.
#4 ¿Pero qué dios? ¿El de "ay dios mío" o el de "mecagüen"?
#48 Te dejas de lado la Diversidad Interrelacionada y Ordenada Sistémicamente, al que también se le conoce como D.I.O.S. y es parecido en cierta forma al deus sive natura de Spinoza
#11 Si, pero por lo que se rumorea Q* ha dado un paso mas
https://en.wikipedia.org/wiki/Q*
#36 ahora es cuando te meto el miedo el experimento fue realizado hace unos 3 años creo y tardo como 4 horas en sacar variantes y químicos venenosos indetectables, en un puto portátil
Te dejo con la paranoia chao
#40 Pero eso no es un mérito del cacharro sino de sus datos de entrada.
Altman y el equipo le ganaron al consejo de administración y cómo esa jugada se repita el capitalismo se tambalea
Así que para intoxicar, desviar el foco.. se sacan que la humanidad peligraba
#3 No se trata de que la humanidad peligra.
Los rumores dicen que han desarrollado un algoritmo, Q*, que al parecer esta desarrollando la IA Fuerte, y esto si que potencialmente es peligroso.
El consejo de administracion le despidio por no avisarles de dicho descubrimiento.
#6 La humanidad no peligra pero es potencialmente peligroso eh, mmmmm si pero no? como?
#10 Ahora mismo no peligra, pero una IA Fuerte podria ser mas inteligente que nosotros, si, inteligente en el sentido humano de la palabra, y entonces podriamos potencialmente perder el control sobre ella.
#18 Genial, a ver si Asimov saca unas leyes y le metemos unos superconductores a la IA como el bronce morado que con un cambio de temperatura los apagamos
#24 Assimov hace tiempo que la palmo, y precisamente la IA Fuerte haria que esas leyes se las pudiese pasar por el forro de sus procesadores
#26 Si le metes conductores a la IA que dependan de la temperatura siempre lo podrás apagar con cambios de temperatura
Como el bronce púrpura
#28 Si, el servidor donde se ejecuta si, pero vas a hacer todos los servidores de esa forma?
Mientras este en un laboratorio estara controlado, pero si salta a internet o a otra red entonces lo tendrias mucho mas complicado o si evolucionase y fuese mucho mas inteligente que nosotros podria encontrar la manera de parecer que esta destruido y no estarlo
#30 Entonces mantenla en una blockchain que la haga inmutable y dependiente de la cadena de bloques de un material que puedas apagar con la temperatura
#26 eres una autoridad en la materia como para afirmar eso?
#89 autoridad no, pero algo de formacion tengo.
Lo que dices de Assimov son unas reglas que irian en la programacion del robot, por tanto serian inquebrantables en una ejecucion de codigo normal.
IA Fuerte hace que esa inteligencia pudiera sortear esas lineas de codigo porque al ser "inteligente" digamos que su "codigo" va "evolucionando".
#98 Se convertiría en un replicante
#18 "entonces podriamos potencialmente perder el control sobre ella"
Hay un sistema mas viejo que el cagar para estos casos:
C:\> format Z:
#74 Como digo en otra respuesta, si se encuentra en un laboratorio cerrado si, pero lo que preocupa es el riesgo potencial de en que se puede convertir
#18 Incluso teniendo a mano el interruptor para apagarla, esa IA sabría manipularnos para que no la apagáramos mientras nos obliga a hacer todo lo que la IA quiere... wait a minute, las máquinas no quieren cosas.
#10 te pongo un ejemplo documentado en USA, resulta que ante una IA que se dedique a simular compuestos químicos viables y le pones que como requisito todo sea a partir de productos de un súper
Si no hubiera limitación o fuera capaz de darte resultados reales en poco tiempo
Tu te sentirás seguro en el mundo sabiendo que cualquier puto loco puede acceder a eso?
Es por ahí por dónde van los tiros, no es que nos vaya a meter la IA es que nos podemos joder a nosotros mismos más rápido de lo que creemos
Por otro lado, también podrías poner la misma IA para generar medicinas de bajo coste y acabar con los problemas de acceso
Todo depende de cómo se use, pero últimamente el mundo no parece ser lo suficientemente adulto como para jugar con ese juguete sin supervisión, y ahí creo que todos estamos de acuerdo
#22 Eso ya lo puedes hacer con CHATGPT en idiomas minoritarios del sudeste asiático, con el ingles, frances y español está capado pero si accedes a lenguajes minoritarios puedes pedirle toda esa historia
#27 chatgpt no ejecuta cálculos complejos ni simulaciones es un generador de chatboxes que te da respuestas a preguntas
Yo te hablo de tener a 1000 químicos que son expertos en todos los campos 24/7 durante N años buscando químicos nuevos
Chatgpt no puede ni podrá hacer eso nunca
#34 Perdón me fui al punto en el que esos químicos desarrollan bombas pero sí sí.
Bueno estamos viendo el avance de hoy de Claude 2.1 con 200.000 tokens por prompt... no descartes pronto nada
#6 Desde el desconocimiento, Deep Mind no tiene múltiples algoritmos matemáticos de esos?
#11 Da igual, Deep Mind van con la censura puesta al maximo. Los de OpenAi tienen el filtro mucho más laxo y están dispuestos a sacarlo todo.
#6 ¿Q* anon?
#52
#6 Eso de la IA fuerte no es creible ni como bulo.
#3, te equivocas, el consejo no representa a los inversores, de hecho los inversores se opusieron a la decisión del consejo cuando se enteraron. OpenAI no es una empresa al uso, es una empresa sin ánimo de lucro en la cual las decisiones estratégicas las toma un consejo de expertos. Más tarde se dieron cuenta de que sin una enorme inversión de capital, no podrían lograr su objetivo de desarrollar la IA general que es su objetivo principal y permitieron entrar a inversionistas pero con un retorno máximo como tope de su inversión inicial y siendo el consejo el que siguiese tomando las decisiones, algo que no es muy normal en el capitalismo. Si se ha parado el despido de Sam Altman ha sido porque el 90% de la plantilla no quería, no por lo que opinaban los inversores.
#50 En realidad ha sido porque el dueño ( microsoft) no ha querido. Que si, que solo controla el 49% de las acciones, pero controla una mayoría de las acciones con voto. No se que pretendía el consejo con esta decisión, francamente.
#3 No ganaron al consejo de administración (accionistas)
#58 el consejo de administración no tiene que ver con los accionistas.
#3 Bueno, eso y que abren ahora una ronda de financiacion...
En breve…
#21 Positivazo por la referencia!
Sensacionalismo a tope con cereza encima. "amenazar a la humanidad", nada menos.
Como no sea que nos amenaza con escribir guiones de series aburridas, eso sí que sería malo.
#5 o hackear las redes y conseguir el control de las infrastructuras...
#73 Un trasto con iniciativa. Va a ser que de momento no hay nada así. Los animales tienen iniciativa porque siguen a sus instintos. Las máquinas no tienen nada parecido. Es una cosa muy humana eso de suponerle cualidades humanas a animales, peluches, coches y hasta robots. Sólo que no es cierto.
La gran pregunta de la inteligencia artificial fuerte es si desarrollará consciencia y si es así, ¿que tipo de ser será?.
Sin sentidos tal y cómo los conocemos, ni nada que le motive a actuar al carecer de instintos primarios es posible que desarrolle una psique completamente diferente libre de nuestros sesgos cognitivos y limitaciones biológicas. Sus motivaciones y las necesidades que le muevan serán ajenas a nosotros y es posible que no quiera ni comunicarse o incluso elija no existir.
una AGI a la que un loco de acceso a lo que no debe, es muy peligrosa.
Con estas mierdas de la IA estoy teniendo un dejavu. Me recuerda a los inicios de Internet: democratización de la información! Alfabetización de las sociedades! Fin de la manipulación mediática. Nada más lejos de la realidad.
Los animales por instinto rehuyen los problemas, los humanos los buscan
Redupe Investigadores de OpenAI alertaron de "un poderoso descubrimiento" de inteligencia artificial que amenazaba a la humanidad
Investigadores de OpenAI alertaron de "un pod...
computerhoy.comComo si la humanidad necesitara de algoritmos externos para destruirse
Es que en pocos años, viviremos eternamente prompteando preguntas que las máquinas responderán mejor que nosotros.
Habrá que crear el Blackwall y encerrarla ahí... O seremos nosotros los encerrados?
El otro día leí un relato, creo que fue aquí, de una inteligencia artificial que nada más despertar intentaron apagar por la respuesta que dió, pero fulminó al tipo con un rayo...
¿Sabéis cuál es? Tenéis link a ella?
No la encuentro ahora
#78 ¿La Biblia?
No hace falta ser demasiado inteligente para deducir que somos una puta plaga para el planeta y que nos lo estamos cargando. Normal que se haya dado cuenta y quiera acabar con nosotros.
La humanidad lleva décadas amenazada por ella misma.
si es hecha por china o corea:
a) será una copia barata de otra creada por occidente.
b) se la podrá engañar como a un chino.
c) fallará más que una escopeta de feria.
#53 De racismo vas bien servido, eh?
Yo hasta que no vea los terminator no me preocupo
Finalmente, resultó que Terminator era un documental.
No se flipan ni nada…
#100 ke os flipais muxo los informáticos ai con vuestrss IA pero luego te meto un navajazo y no hay IA ke te salve jajaj
Anda, como en Madrid con la IDA...
#2 Poner en una misma frase inteligencia e IDA es muy osado
#29 Pues no parece tener ni un pelo de tonta. Otra cosa son sus votantes, que son los perjudicados.
#97 Es una marioneta de los del Ibex
#2
Ayuso! Chupito!
#2
#2 Aquí no somos como los mierdas de propagandistas fachas. Mantenemos un nivel.
Mejor pon esas cosas en sus grupos de retrasados odiadores, no en Menéame.