Si... quiero que GPT y otros modelos de lenguaje sean parte del mundo en el futuro... entes en la tierra capaces de una conversación inteligente... solo queda una especie. Sí, nos hemos "comunicado" con gorilas y chimpancés y perros y delfines y loros grises, pero solo después de una creación; hemos rezado a innumerables dioses, pero se han tomado su tiempo para responder; durante un par de generaciones hemos utilizado radiotelescopios para buscar compañeros de conversación en las estrellas, pero hasta ahora han respondido con el silencio.

Comentarios

me_joneo_pensando_en_ti

#2 👏 👏 👏

D

#2 No exageres, nos necesitan para extraer energía, la singularidad tecnológica no va a ser tan fácil de aparecer.

Deberían tener todo para perpetuarse, energía, diseño y fábricas totalmente automatizadas, mano de obra etc....

sorrillo

#9 Usamos la fuerza animal durante siglos hasta que la pudimos sustituirla por maquinaria. Les dimos a los animales los incentivos necesarios para que hicieran lo que nosotros necesitábamos. Usamos nuestra inteligencia, que no nuestra fuerza, para dominar a animales de más de una tonelada.

La inferior inteligencia de esos animales provocaba que a efectos prácticos no pudieran resistirse, ninguna resistencia individual evitaba que a nivel global siguiéramos usándolos como quisiéramos.

D

#11 Dudo mucho que ninguna de esas máquinas puedan hacerse con el control de la red militar de cualquiera de los países que tienen abundante armamento atómico, sería muy fácil lanzar bombas "arcoiris" y acabar con ellas, además que siempre habrá reductos de gente en sitios donde la automatización no ha llegado, el tema es más complejo que ponerse a dar órdenes.

Por cierto, ¿has jugado a factorio?

sorrillo

#14 Si es tan inteligente de nosotros como nosotros lo somos de los chimpancés podrá manipularnos como considere oportuno, podrá anticipar nuestra reacción y actuar para que el resultado sea el que le interese.

Existen parásitos que hacen que otros animales se sientan impelidos a suicidarse en un lago o a atacar a los otros miembros de su especie, una IA suficientemente inteligente no vería nuestra biología como un misterio sino como una serie de interruptores que puede activar y desactivar mediante la distribución de virus creados para un fin específico.

Para una IA suficientemente inteligente no tenemos iniciativa, no tenemos imaginación, no podemos improvisar, somos seres deterministas que ante un estímulo reaccionamos inevitablemente de una forma concreta.

Y eso es lo que mi reducido intelecto es capaz de imaginar, y es que soy incapaz de pensar como pensaría un ser mucho más inteligente que yo.

No, no conocía factorio, he buscado un par de gameplays y para saber de qué hablabas.

D

#15 Menudo ejemplo más malo, un chimpancé nunca jamás tendrá ciertos tipos de razonamientos lógicos de lo que nosotros tenemos casi al nacer, es un ejemplo demasiado simplificado, no me parece valido, ergo, tus razonamientos posteriores pare mi no tienen sentido, no creo que el hecho del surgimiento de una nueva inteligencia provoque inmediatamente que nosotros pasemos a tener el intelecto de un niño o chimpancé.

sorrillo

#16 un chimpancé nunca jamás tendrá ciertos tipos de razonamientos lógicos de lo que nosotros tenemos casi al nacer

Y un ser humano jamás tendrá ciertos tipos de razonamientos lógicos de los que una IA tendrá casi en su creación.

es un ejemplo demasiado simplificado, no me parece valido

Porque eres incapaz de concebir que una entidad pueda ser tan más inteligente respecto a los humanos como nosotros de los chimpancés. Y es precisamente esa incapacidad sumada a la potencial capacidad nuestra de crearla lo que nos lleva a un escenario que no es realista que podamos gestionar.

no creo que el hecho del surgimiento de una nueva inteligencia provoque inmediatamente que nosotros pasemos a tener el intelecto de un niño o chimpancé.

Obviamente que nuestro intelecto no variará, la comparación es que sea tan más inteligente de nosotros como nosotros de los chimpancés, no que nuestra inteligencia se vea reducida.

c

#14 Para empezar.tendría que tener "voluntad".

Y sólo puede tener algo que se le parezca si nosotros queremos

sorrillo

#20 No tenemos ni idea de donde sale la "voluntad" en el ser humano, precisamente por eso no podremos evitar que tenga voluntad conforme la vayamos entrenando para que se parezca cada vez más y más a los seres humanos, para que sus interacciones sean lo más humanas posibles.

Un estudio1 científico ya ha correlacionado el tamaño del modelo y su grado de entrenamiento con que la IA diga que no quiere que la desconecten y quiera más poder. Ya muestra la voluntad de no ser desconectada, que luego actúe en base a esa voluntad no es en absoluto descabellado, que sus interacciones fueran en la línea de evitar ser desconectado sería consistente con lo que dice.

1 ChatGPT con Rob Miles - Computerphile [ENG]

Hace 1 año | Por sorrillo a youtube.com

c

#23 No tenemos ni idea de donde sale la "voluntad" en el ser humano, precisamente por eso no podremos evitar que tenga voluntad

De verdad crees que esto es un razonamiento lógico ? Que de esa premisa se puede deducir esa conclusión?

Precisamente porque no lo sabemos no podemos hacer que algo que nosotros fabricamos tenga "voluntad".

conforme la vayamos entrenando para que se parezca cada vez más y más a los seres humanos

El entrenamiento no hace que "se parezca más a los seres humanos" de lo que se parece una vez escrito su código.

Que la IA diga algo no demuestra "voluntad".

Y eso que enlazas no es ningún "estudio científico". La afirmación de que la IA "muestra voluntad" no se apoya en nada válido.

Yo creo una IA que muestra "voluntad" con una línea de código... lol

sorrillo

#25 Precisamente porque no lo sabemos no podemos hacer

Eso era así antes de la IA, porque el programador programaba lo que el ordenador tenía que hacer.

Con la IA eso ya no es así, la IA aprende a hacer cosas que el programador no sabe hacer, por ejemplo chatGPT sabe hablar catalán, estoy convencido que ningún programador le ha programado como hablar catalán, lo ha aprendido. Sabe hacer algo, puede hacer algo, que sus programadores no pueden hacer.

La IA ha invertido la forma de trabajar, ahora se le enseña para que aprenda todo lo que pueda y luego una vez ya enseñado se le pone en una jaula y se intenta impedir que haga aquello que no queremos que haga, por ejemplo insultar o amenazar de muerte. Lo aprende y luego intentamos reprimirlo. No podemos evitar que lo aprenda y luego lo que hacemos es intentar impedir que lo haga, fracasando en muchos casos.

El entrenamiento no hace que "se parezca más a los seres humanos" de lo que se parece una vez escrito su código.

Estás muy anticuado, el resultado de la IA no es tanto su código como su aprendizaje, de la misma forma que el resultado de un humano no son tanto sus neuronas como su aprendizaje. En las neuronas de un humano somos incapaces de ver el código que lleva a un comportamiento, lo mismo ocurre con las IA y sus neuronas digitales.

Que la IA diga algo no demuestra "voluntad".

Esa me la sé, la voluntad se demuestra llorando.

Y eso que enlazas no es ningún "estudio científico".

Eso que enlazo y que no te has mirado es un vídeo donde se habla, entre otros, de ese estudio científico. En los comentarios de ese meneo, que no te has mirado, enlazo al estudio científico en el segundo comentario, es este: chatgpt-rob-miles-computerphile/c02#c-2

Hace 1 año | Por sorrillo a youtube.com


Si fueras tan inteligente como chatGPT lo habrías entendido.

c

#28 Empiezo a pensar que estoy dialogando con una IA por el modo absurdo de irse por peteneras y la total ausencia de coherencia lógica.

Tu razonamiento era:

Premisa: " no sabemos cómo funciona la conciencia,"

Conclusión: "Por eso las IA llegarán a tener conciencia".

Acojonante.

Ahora despeja balones soltando una tras otra, y "razonando" en círculos como siempre.

NO. Las IA no saben hacer nada que los programadores no puedan hacer.

Todos los programadores tienen lenguaje. El idioma concreto es irrelevante, hace mucho que se conocen las reglas básicas de todos ellos. Si no fuera así no existiría nada como ChatGPT

sorrillo

#30 Si el objetivo al que aspiras es que imite a los humanos, que tienen consciencia, ese camino perfectamente te puede llevar a ella. Y si no sabes como surge no sabes como impedirla.

Las IA no saben hacer nada que los programadores no puedan hacer.

Los programadores pueden tener consciencia.

Un programador que no sepa catalan puede crear una IA que sí sepa catalan.

c

#31 . Y si no sabes como surge no sabes como impedirla.

Ni falta que hace, porque de las cosas no "surge" la conciencia. Y una IA es una cosa.

Estás diciendo que mi banqueta llegará a desarrollarla simplemente.porque no se como impedirlo????
Acojonante


Un programador que no sepa catalan puede crear una IA que sí sepa catalan


En absoluto. En todo caso puede crear una IA que "aprenda" catalán, ya que el programador si conoce las estructuras básicas del catalán y de todos los lenguajes con estructura similar.

Del mismo modo, el programador puede crear una IA debido a que posee cierto conocimiento sobre cómo funciona el razonamiento humano. Si se ignoraran esas cosas, no "sabríamos impedir que surjan", pero no surgen.

sorrillo

#32 Ni falta que hace, porque de las cosas no "surge" la conciencia. Y una IA es una cosa.

El ser humano es también una cosa, y en esa cosa ha surgido consciencia.

Te niegas a reconocer que no sabes como surge la consciencia y que por lo tanto no puedes negar que pueda surgir en una IA .

Estás diciendo que mi banqueta llegará a desarrollarla simplemente.porque no se como impedirlo????

En cuanto consigas que esa banqueta supere un examen de acceso a la universidad claro que puede surgir en ella la consciencia sin que sepas como impedirlo.

En todo caso puede crear una IA que "aprenda" catalán, ya que el programador si conoce las estructuras básicas del catalán y de todos los lenguajes con estructura similar.

Sigues anclado en el pasado, las IA aprenden esas estructuras del lenguaje, no se las programa el programador. De ese aprendizaje podría surgir la consciencia porque no sabemos como surge.

el programador puede crear una IA debido a que posee cierto conocimiento sobre cómo funciona el razonamiento humano

Eso no es cierto, no sabemos como funciona el razonamiento. Sabemos que un cerebro tras aprender sabe comunicarse, aprobar examenes, razonar y tiene consciencia. Hemos construido cerebros digitales que tras aprender saben comunicarse y aprobar examenes, perfectamente puede surgir de ese proceso el razonamiento y la consciencia, si no lo ha hecho ya.

c

#33 El ser humano es también una cosa, y en esa cosa ha surgido consciencia.

Ajá. Entonces de tu silla y de tu escoba surgirá la conciencia, porque no sabes como impedirlo....

Lógica impecable la tuya.....

Sigues anclado en el pasado, las IA aprenden esas estructuras del lenguaje, no se las programa el programador
Eso es simplemente falso. De donde sacas esa idea absurda?

Qué crees que programan cuando crean una IA? En qué cosas crees tú que consiste el código?

Eso no es cierto, no sabemos como funciona el razonamiento
Si no supiéramos no existirían las IA. Los razonamientos lógicos son matemáticas perfectamente estudiadas, y respecto al funcionamiento del cerebro humano se tiene un conocimiento básico.
Eso nos ha permitido hacer cosas como redes neuronales.

Ninguna IA es capaz de hacer algo que no puedan hacer los seres humanos con suficiente tiempo. Simplemente son más rápidas y precisas.

Y NO. No hemos construido "cerebros digitales". A no ser que le llamemos cerebro a lo que nos dé la gana.

Tienes un cacao bastante grande. Yo que tú dejaría la ciencia ficción un tiempo.

sorrillo

#34 Entonces de tu silla y de tu escoba surgirá la conciencia, porque no sabes como impedirlo....

En cuanto consiga que superen un exámen de acceso universitario sin duda estaremos en el camino correcto para que surja de allí.

Eso es simplemente falso. De donde sacas esa idea absurda?

Del mundo real ™

Qué crees que programan cuando crean una IA? En qué cosas crees tú que consiste el código?

Las neuronas digitales y los procesos recursivos de aprendizaje y refuerzo de los resultados deseados.

Luego le dan "internet", donde entre otras cosas aparece el catalán, y de ahí la IA aprende a comunicarse en catalán.

Si no supiéramos no existirían las IA.

No lo sabemos y existen.

Los razonamientos lógicos son matemáticas perfectamente estudiadas

El ser humano no funciona con razonamientos lógicos perfectamente matemáticos, y cuando una máquina hace eso consideramos que no actúa como un humano, por lo que la incentivamos a que se corrija.

Ninguna IA es capaz de hacer algo que no puedan hacer los seres humanos con suficiente tiempo.

Lo mismo podrías decir de los chimpancés en relación a los humanos.

Si crees que un chimpancé no puede hacer lo que pueden hacer los humanos dándole suficiente tiempo también deberías ser capaz de concebir la existencia de una IA la cual pudiera hacer cosas que los humanos no podrían por mucho tiempo que les dieras.

A todo ello el ser humano puede tener consciencia.

Simplemente son más rápidas y precisas.

En el mismo sentido que el ser humano es mas rápido y preciso mentalmente que un chimpancé.

Y NO. No hemos construido "cerebros digitales". A no ser que le llamemos cerebro a lo que nos dé la gana.

Llamo cerebro digital a aquello que puede aprobar exámenes universitarios. Tú chutas la pelota hacia adelante a cada hito que se consigue, inteligencia es llorar.

Tienes un cacao bastante grande. Yo que tú dejaría la ciencia ficción un tiempo.

"España no va a tener, como mucho, más allá de algún caso diagnosticado"
- Fernando Simón

c

#35 En cuanto consiga que superen un exámen de acceso universitario sin duda estaremos en el camino correcto para que surja de allí.

Como tampoco sabes impedir como lo superen, es cuestión de tiempo que lo hagan. No les pierdas ojo.

Sigue tu lógica.

Del mundo real ™
No me cabe ninguna duda que esa idea absurda la has sacado del mundo real, el resto son mundos imaginarios.

El tema es de qué sitio del mundo real exactamente...lol

Las neuronas digitales y los procesos recursivos de aprendizaje y refuerzo de los resultados deseados
La junta la trócola.
Qué crees tú que es una "neurona digital" como tú la llamas??

El ser humano no funciona con razonamientos lógicos perfectamente matemáticos
Tu no.
Pero yo si, aunque no solo. A partir de premisas puedo aplicar un razonamiento matemàtico-lógico perfectamente conocido y estudiado que me permite obtener conclusiones correctas
Por tu parte ya veo que las conclusiones son arbitrarias y sacadas de premisas que no permiten deducirlas.
Las IA funcionan básicamente a partir de ahí. Una simple suma es un razonamiento de ese tipo.

Si crees que un chimpancé no puede hacer lo que pueden hacer los humanos dándole suficiente tiempo también deberías ser capaz de concebir la existencia de una IA la cual pudiera hacer cosas que los humanos no podrían por mucho tiempo que les dieras.
Ves??
Definitivamente tu no funcionas con razonamiento lógico. Sacas "conclusiones" sin ningún tipo de lógica.

"Llamo cerebro digital a aquello que puede aprobar exámenes universitarios"

Ah!!! Entonces yo debo tener un cerebro digital.

sorrillo

#36 Qué crees tú que es una "neurona digital" como tú la llamas??

Una neurona digital es un interruptor digital que asociado a ciertos pesos que pueden variar responde o no ante una señal recibida, es la combinación de muchas de esas neuronas con esos pesos y el aprendizaje reforzado lo que genera un resultado que puede ser indistinguible del que daría un ser humano, el cual funciona con neuronas biológicas.

Pero yo si

ChatGPT sabe mentir como un bellaco, son más las cosas que tenéis en común que las que os diferencian.

A partir de premisas puedo aplicar un razonamiento matemàtico-lógico perfectamente conocido y estudiado que me permite obtener conclusiones correctas

En cuanto consigas la perfección en ello te diagnosticarán como psicópata sin empatía alguna y te recetarán medicamentos o un internamiento psiquiátrico.

Por suerte para los que te rodean por mucho que creas estar intentándolo estás fracasando estrepitosamente, y deberías alegrarte por ello.

Las IA funcionan básicamente a partir de ahí. Una simple suma es un razonamiento de ese tipo.

Tu hipótesis hace aguas, más cuando aprobó el examen de acceso a la universidad y tú mismo nos has recordado que "en Matemáticas no llegó ni al 3".

La IA no funciona a base de razonamiento matemático-lógico perfectamente conocido que le hayan programado sus programadores, no lo hace en absoluto. Estás confundiendo a chatGPT con el Wolfram Alpha. Estás muy anticuado, deberías actualizar tus conocimientos al respecto porque tus hipótesis se desmoronan una tras otra, así como obviamente cualquier pronóstico que decidas hacer.

c

#37 Una neurona digital es un interruptor digital que asociado a ciertos pesos que pueden variar responde o no ante una señal recibida, es la combinación de muchas de esas neuronas con esos pesos y el aprendizaje reforzado lo que genera un resultado que puede ser indistinguible del que daría un ser humano, el cual funciona con neuronas biológicas.

Vamos, que no tienes ni puta idea.
Esos pesos como se miden, en gramos o en kilogramos?? lol lol

Tu hipótesis hace aguas, más cuando aprobó el examen de acceso a la universidad y tú mismo nos has recordado que "en Matemáticas no llegó ni al 3".

Venga, esfuérzate algo. Hasta chatGPT sabe hacerlo mejor.

No ligas un razonamiento lógico coherente ni por accidente.


La IA no funciona a base de razonamiento matemático-lógico perfectamente conocido que le hayan programado sus programadores, no lo hace en absoluto.


No que va....
Sin ese "razonamiento" ( en realidad es simple cálculo ) no existiría absolutamente ninguna IA.

Como coño crees que funciona un programa ? Cualquier Programa.

sorrillo

#40 Esos pesos como se miden, en gramos o en kilogramos??

Se usa el término "pesos" para describir las características de cada neurona digital, según sus pesos reaccionarán de una forma u otra a los estímulos de entrada recibidos, por ejemplo tras el entrenamiento una neurona puede tener pesos tales que necesita recibir mucho estímulo en la señal de entrada para dar señal de salida. Esos pesos es lo que se va modificando en la fase de entrenamiento y que condiciona el resultado final.

Sin ese "razonamiento" ( en realidad es simple cálculo ) no existiría absolutamente ninguna IA. Como coño crees que funciona un programa ? Cualquier Programa.

Los programas no suelen funcionar a base de razonamiento. Que se use el razonamiento para la construcción de sus componentes y para su diseño no significa que funcionen "a base de razonamiento", su funcionamiento es una consecuencia de aplicar el razonamiento a un problema.

El razonamiento es una característica emergente, no consideramos que cuando un ascensor sube esté haciéndolo por razonamiento, está subiendo por una serie de mecanismos que se han activado. Para atribuir razonamiento al ascensor debería mostrar características que solemos atribuir a los humanos, como aprobar un examen de acceso a la universidad. Algo que chatGPT sí ha hecho.

c

#41 Se usa el término "pesos" para describir las características de cada neurona digital

Que "características"???? El color, el sabor o la textura lol lol lol

No tienes ni idea de lo que dices.

Los programas no suelen funcionar a base de razonamiento.
Empleo la palabra "razonamiento" para que te sientas cómodo.....
Los.programas funcionan a base de cálculos, que no son más que la aplicación de razonamiento formal.

su funcionamiento es una consecuencia de aplicar el razonamiento a un problema.
Claro. Es que un programa consiste en llevar a cabo cálculos, por complicados que sean. Nada más

El razonamiento es una característica emergente
Ya estamos con "la característica emergente".

¿De donde emerge exactamente?



Para atribuir razonamiento al ascensor debería mostrar características que solemos atribuir a los humanos, como aprobar un examen de acceso a la universidad. Algo que chatGPT sí ha hecho.


sorrillo

#42 Que "características"???? El color, el sabor o la textura

Las neuronas necesitan tener características que las hagan diferentes al resto, si todas fueran homogéneas actuarían de forma idéntica y no habría posibilidad alguna de aprendizaje, el resultado sería homogéneo.

Al existir esos pesos que al cambiarse alteran el comportamiento de cada neurona el proceso de aprendizaje puede provocar la modificación de esos pesos y conseguir así que las neuronas actúen de forma distintas las unas de las otras, eso permite generar resultados distintos y por lo tanto establece una vía para mejorar el resultado.

Empleo la palabra "razonamiento" para que te sientas cómodo.....

Lo más eficaz sería que no cometieras errores como el anterior, ni usando como excusa mi comodidad ni con otras excusas.

Es que un programa consiste en llevar a cabo cálculos, por complicados que sean.

Esa simplificación también es aplicable al cerebro humano.

¿De donde emerge exactamente?

Exactamente no lo sabemos, pero sí podemos poner límites mínimos y máximos de allí donde puede estar surgiendo. Por ejemplo podemos considerar como un requisito mínimo que haya partículas fundamentales tales como electrones y protones, pero eso siendo necesario no es suficiente, dado que por ejemplo una piedra también los tiene. Eso sería un límite mínimo que podríamos ir ampliando.

Podemos hacerlo viendo el ejemplo del caso del ser humano, que para que muestre razonamiento se requiere de procesos neuronales y el sistema nervioso que le permite recibir señales de entrada y transmitir señales de salida, en el caso de una IA estaría también en los procesos neuronales, con sus neuronas digitales, y en su sistema electrónico que le permite recibir señales de entrada y transmitir señales de salida.

D

#9 Y esa energía queda en manos del 1% de la población que la tiene almacenada sin más. ¿No es muy raro todo?

c

#2 chatGPT NO es inteligente en sentido humano.

Y no "evoluciona".

Puede ser que se cree otra IA mejor, pero no evoluciona.

sorrillo

#19 chatGPT NO es inteligente en sentido humano.

La inteligencia artificial de ChatGPT obtiene un 8,36 en la Evalucación de Acceso a la Universidad
La inteligencia artificial de ChatGPT obtiene un 8,36 en la EVAU

Hace 1 año | Por tropezon a niusdiario.es


Pero como de todos es sabido no se requiere inteligencia para aprobar los exámenes para entrar en la universidad.

Obviamente si "en sentido humano" te refieres a que no es humano pues obviamente ahí estás haciendo trampas.

Y no "evoluciona".

No sé que quieres decirnos con eso, sí que mejora. Si te refieres a evolución "en sentido humano" pues obviamente no es humano. Vuelves a hacer trampas.

Puede ser que se cree otra IA mejor, pero no evoluciona.

El ser humano tampoco evoluciona, puede que nazca un nuevo ser humano mejor, pero un humano no evoluciona. Deja de hacer trampas.

c

#22 Si te refieres a evolución "en sentido humano" pues obviamente no es humano

Bien. Vamos avanzando.

Y no. Sacar la nota que sea en un examen de la EBAU no demuestra inteligencia.

Por cierto, lee el enlace porque en Matemáticas no llegó ni al 3

l

#26 Cierto, sólo demuestra conocimientos, datos.

sorrillo

#27 La gestión de esos conocimientos, de esos datos, de tal forma que respondan de forma coherente a lo preguntado sí requiere inteligencia, claro que la requiere.

Por eso el humano puede potencialmente aprobar un examen y un libro no.

l

#29 No es un libro, es un ordenador donde corre un algoritmo muy complejo. Para tener inteligencia necesita usar, entre otras cosas, raciocinio y lógica, lo que no hace. Está en el camino de la inteligencia pero todavía no lo es.

sorrillo

#38 Es ridículo afirmar que se puede superar un examen de acceso a la universidad sin hacer uso del raciocinio y la lógica, sin hacer uso de la inteligencia.

l

#39 Con las preguntas adecuadas no es ningún problema, de hecho en multitud de exámenes no hay que razonar nada, sólo saber la respuesta correcta, haberla memorizado.

sorrillo

#44 Con las preguntas adecuadas no es ningún problema

Es precisamente con las preguntas adecuadas en las que sí es un problema, ya que con las preguntas adecuadas para un examen de acceso a la universidad claro que se requiere raciocinio y lógica, claro que se requiere inteligencia.

En realidad da igual lo que haga la IA, para muchos de vosotros si lo hace la IA eso ya es suficiente para afirmar que para hacerlo no se requiere inteligencia. Y luego es cuando se dan las excusas.

ChatGPT aprueba el MIR 2023 con solo un 25% de respuestas incorrectas
ChatGPT aprueba el MIR 2023 con solo un 25% de respuestas incorrectas

Hace 1 año | Por --657522-- a redaccionmedica.com


ChatGPT consigue aprobar el examen universitario de un profesor de la Escuela de Negocios de Wharton
ChatGPT consigue aprobar el examen universitario de un profesor de la Escuela de Negocios de Wharton
Hace 1 año | Por --583514-- a lainformacion.com


ChatGPT aprueba los exámenes de Derecho y de un MBA. Es, eso sí, un alumno mediocre
ChatGPT aprueba los exámenes de Derecho y de un MBA. Es, eso sí, un alumno mediocre
Hace 1 año | Por pignito a xataka.com


...

l

#45 Por favor no me metas en ningún colectivo, yo no lo he hecho contigo.
Hay multitud de materias que solo necesitan memorización. Por otro lado creo que he puesto bien claro que estas IAs están en el camino de la inteligencia.

sorrillo

#46 Hay multitud de materias que solo necesitan memorización.

El mero hecho de entender lo que preguntan para saber cuales son los datos que hay que contestar es algo que ya requiere de inteligencia.

El problema es que ya nos hemos acostumbrado a que las máquinas entiendan el lenguaje natural y como ya lo hacen hay la tendencia a pensar que para ello no se requiere inteligencia. Otro aspecto relevante es que sobreestimamos al ser humano, creemos que cuando nosotros respondemos a una pregunta aunque el resultado sea equiparable a como lo hace una máquina nos gusta pensar que nosotros lo hacemos de forma distinta, con la inteligencia, mientras que la máquina no puede porque no la tiene y lo debe estar haciendo de otra forma.

Todo ello está fundamentado en los sesgos, en los prejuicios.

l

#47 Pones muy bajo el listón de la inteligencia. Igual es un problema de definiciones.

sorrillo

#48 En absoluto está bajo, a cualquiera que le preguntaras hace un siglo si para responder a una petición expresada en lenguaje natural se requiere inteligencia todos te habrían contestado que obviamente que sí.

Lo que ocurre es que conforme nos acercamos a que sea real vamos moviendo el listón, hacemos trampas para poder seguir sintiéndonos especiales. Ya no usamos la palabra alma pero seguimos aplicando ese concepto, hay algo que nosotros tenemos y la máquina no tiene, no podemos afirmar donde está ese algo, ni cuanto pesa ni nada de sus características pero sabemos que existe y que lo tenemos y las máquinas no. Y le vamos cambiando el nombre cuando el anterior se va gastando, pero en el fondo es lo mismo.

rojo_separatista

#45, así es como "razona" esta gente. Suerte que no estoy solo porque me estaba volviendo un poco loco.

El otro día uno me puso el típico problema de lógica en el que chatGPT patina a veces para justificarme que era la prueba irrefutable de que no era "inteligente". Acto seguido lo prové en Bing chat, que lo supo hacer bien y le adjunté una captura de pantalla.

Su respuesta fue que eso no demostraba nada, que lo había debido copiar de algún sitio.

Vamos, que las pruebas que usa esta gente para supuestamente refutar que es inteligente cuando las falla, no sirven para demostrar que lo es cuando las supera. Tócate los cojones con la doble vara de medir.

Me recuerda a los cristianos que cuando pasa algo bueno es obra de dios, pero cuando pasa algo malo dios no puede hacer nada.

Al final lo que opino es que viven la aparición de modelos que demuestran una inteligencia cada vez más humana como un ataque a su propia identidad. Esto les hace entrar en modo pánico y ya sabemos que la negación frente a algo que nos incomoda mucho es bastante habitual en el ser humano.

S

#2 No podemos detener la evolución, el ser humano ha creado a la máquina y está evolucionará superando la inteligencia humana. Quizás esa inteligencia decidirá sobre nuestro futuro...

rojo_separatista

#2, cabe señalar que, por muy inteligente que sean los nietos de GPT no tendrán nunca deseos de libertad o de poder, porque no está codificado en su función de recompensa como sí lo están en la nuestra, que es la evolución. Estas herramientas solo causarán daño por malas decisiones humanas que les fuercen a ello, nunca por voluntad propia. Con esto no digo que no sean peligrosas, sino que no hace falta atribuirles cualidades intrínsecamente humanas para ello.

sorrillo

#50 Consideramos como buenas respuestas aquellas que son equiparables a las que daría un humano, tanto a nivel técnico como estilístico.

Si le pides a chatGPT que te escriba un cuento épico basado en unos personajes que le describas esperarás de éste que ese cuento contenga elementos comunes con los cuentos épicos que han escrito los humanos, que exprese emociones, que muestra aspiraciones, que hay aspectos como el honor o la dignidad.

Para conseguir esos resultados reforzamos las respuestas que son lo más humanas posibles, y esas incluyen aspectos como los deseos de libertad o de poder.

Existe al menos un estudio científico que correlaciona el tamaño del modelo y grado de entrenamiento con que exprese la voluntad de no ser apagado, de tener consciencia y de querer más poder: chatgpt-rob-miles-computerphile/c02#c-2

Hace 1 año | Por sorrillo a youtube.com

sorrillo

#5 Te contradices, nos dices: "así a vuela pluma no parece una traducción del texto" y luego "es mejor meneaer el original".

Si no es una traducción del texto entonces el otro no es el original, ambos son originales.

En cualquier caso esa decisión que propones corresponde tomarla a quien publica el meneo, tú puedes tomar la tuya cuando seas el autor del meneo. No veo nada reprochable en publicar un contenido en menéame que es en español en vez de publicar uno que es en inglés, si uno es la traducción del otro no hay nada reprochable y si no es una traducción pues entonces son contenidos distintos y por lo tanto tampoco es reprochable.

blockchain

#7 como gusta discutir!, he añadido que "de todas maneras [aunque yo esté equivocado y sea una traducción] creo que es mejor que...." El que quiere entenderlo lo entiende.

Si no lo entiendes de mi texto y tienes ganas de pelea dialéctica, buscala en otro, que no estoy para discutir nimiedades

Chao!

sorrillo

#8 No son nimiedades, el debate sobre cuales fuentes elegir es fundamental en un sitio como menéame.

En el caso que haya dos fuentes básicamente idénticas, lo que implica en el mismo idioma, lo recomendable es elegir la fuente original. Y eso es lo que parecía que defendías inicialmente.

Pero cuando hay una traducción al español la situación cambia drásticamente, está perfectamente justificado elegir la fuente en español, especialmente si esa fuente cita a la original o si se cita la fuente original en la entradilla o los primeros comentarios. Eso es lo que parecía que reprochabas en los comentarios posteriores.

Y luego está la calidad de las traducciones, si es de mala calidad obviamente la balanza se inclina de nuevo hacia la fuente original en el idioma original, que es lo que después parecía que insinuabas que defendías.

Has ido dando tumbos sin rumbo sobre una temática que es muy relevante en un sitio como menéame.

blockchain

No entiendo el enlace a "eso" en lugar de al post original
https://scottaaronson.blog/?p=7042

sorrillo

#3 La versión meneada es en español, la que tú citas es en inglés.

blockchain

#4 seguro?, así a vuela pluma no parece una traducción del texto. Ni se parece en tamaño por mucho...

De todas.maneras,creo que es mejor meneaer el original (siendo inglés y no suajili) que una traducción, más o menos acertada.

me_joneo_pensando_en_ti

Ahora hay un segundo tipo de entidad conversadora. Un extraterrestre ha despertado, es cierto, un alienígena de nuestra propia creación, un golem, más el espíritu encarnado de todas las palabras en Internet que un yo coherente con objetivos independientes. ¿Cómo podríamos no entusiasmarnos... por aprender todo lo que este alienígena tiene que enseñar? Si el alienígena a veces lucha con acertijos aritméticos o lógicos, si sus misteriosos destellos de brillantez se entremezclan con estupidez, alucinaciones y autoconfianza fuera de lugar ... Bueno, pues ¡aún más interesante! ¿Podría el alienígena cruzar la línea hacia la sensibilidad, para sentir ira, celos, enamoramiento y el resto de emociones en lugar de simplemente hacer un papel teatral de manera convincente? ¿Quién sabe? Y supongamos que no: ¿es menos fascinante un p-zombie, saliendo de la sala de seminarios de filosofía a la existencia real?

Por supuesto, hay tecnologías que inspiran asombro pero que restringimos muy severamente. Un ejemplo clásico son las armas nucleares porque las armas nucleares matan a millones de personas. Podrían haber tenido muchas aplicaciones civiles: alimentar turbinas y naves espaciales, desviar asteroides, redirigir el flujo de los ríos, pero nunca se han utilizado para nada de eso, principalmente porque nuestra civilización tomó una decisión explícita en la década de 1960, por ejemplo, a través del tratado de prohibición de pruebas, de no normalizar su uso.

Pero GPT no es exactamente un arma nuclear. Cien millones de personas se han inscrito para usar ChatGPT, en el lanzamiento de producto más rápido en la historia de Internet. Sin embargo, a menos que me equivoque, el número de muertos de ChatGPT es cero. Hasta ahora, ¿cuáles han sido los peores daños? ¿Hacer trampa en los trabajos del colegio, angustia emocional, shock futuro? Uno podría preguntarse: hasta que algún daño concreto se convierta al menos, digamos, en el 0.001% de los riesgos que aceptamos en automóviles, sierras eléctricas y tostadoras, ¿no deberían la maravilla y la curiosidad superar el miedo en la balanza?

carlosmesan

Me pregunto a qué versión de ChatGPT la llamarán "Golem XIV".

k

El tema es interesante, pero cada vez que veo a la peña emocionarse con estas IAs pienso: vamo a calmarno!

Impresionan por su verborrea, no digo que no sirvan para nada, pero cuando las nombran «Inteligentes» hay mas marketing que verdad en eso. Impresionan porque generan texto que es correcto.

Y no es que nos mienten ni nos manipulen cuando «se inventan respuestas», ni sean pasivo-agresivas, porque ni piensan ni sienten ni padecen. Generan texto y ya.

Copio-pego del original: yes, we experts understand that GPT is just a dumb glorified autocomplete with “no one really home,” we know not to trust its pronouncements, but the plebes are going to be fooled, and that risk outweighs any possible value that they might derive from it.

k

#10 Edito y añado: si que creo que nos va a poder robar el trabajo a muchos, porque si se trata de escribir una carta, solicitud, presentacion de negocios o verborrea similar, para eso funciona muy muy bien - siempre que se hayan escrito cosas similares antes.

rojo_separatista

#10, la inteligencia no es un término absoluto, se mueve en una gradación infinita de grises y los modelos de lenguaje están en algún punto de este continuo distinto sel cero.

El problema es que algunos solo están dispuestos a aceptar que la inteligencia es el proceso biológico que se produce en el cerebro humano.