y algo que recordaré por tiempo... Habrá salido GPT-4 Desde que aprendimos el patrón GPT-2 -> GPT-3 -> ... la versión 4 de la familia GPT ha sido el modelo más anticipado de la historia del Deep Learning, y ahora mismo el hype está bastante alto. Se dicen cosas como estas Si algo ha despertado mi curiosidad por GPT-4 es leer este párrafo del blog de Gary Marcus, quien por normal general (y en este artículo no es la excepción) se sitúa en las antípodas de estos Enormes Modelos del Lenguaje. ¿Hay gente probándolo ya?
Comentarios
Será mucho más interesante cuando salga GPT-5, por la rima.
#5 Ya estamos con el amor
#5 le podemos pedir a GPT-5 que nos haga una poesía con su nombre
#15 De vez en cuando se descubren vulnerabilidades en diseños de procesadores que llevan 30 años con nosotros, esas vulnerabilidades llevan 30 años allí y nos damos cuenta ahora.
Para una IA órdenes de magnitud más inteligente que nosotros esas vulnerabilidades las puede identificar sin despeinarse. No creo que ningún sistema informático esté a salvo de una IA más inteligente que nosotros que decida controlar nuestra tecnología.
Hay un aspecto que me saca la risa nerviosa y es todo el armamento autónomo, las torretas que disparan solas identificando objetivos o los drones que llevan misiles. La respuesta infantil suele ser que no hay riesgo porque los drones no son autónomos, que los controlan unos operadores con sus joysticks. Vamos, que la IA en vez de controlar el dron directamente tiene que tomar el control de los ordenadores remotos que controlan el dron, somos super listos, eso va a ser un muro infranqueable para la IA.
Yo me estoy mentalizando a ver el fin de nuestra civilización con una sonrisa y disfrutando del espectáculo, porque es mejor eso que verlo amargado y agobiado.
#48, de verdad crees que esto invalida todos los resultados que se están dando en esta línea de investigación?
Mira, esta bien que haya gente que se dedique solamente a poner el foco en los sitios en los que los modelos de machine learning fallan, esto permite continuar mejorando la tecnología y empujar sus límites. Pero no pienses que nada de eso es un obstáculo insalvable. Hace años, Gary Marcus, uno de los principales divulgadores de los límites del deep learning, publicó un artículo explicando por qué GPT-2 era un modelo que no entendía nada de lo que decía y lo demostró con una serie de prompts. Hoy, gptchat no falla en ninguno de ellos.
https://thegradient.pub/gpt2-and-the-nature-of-intelligence/
Con eso lo que quiero decir es que cada vez os va a costar más encontrar ranuras por las que justificar que estos modelos no entienden lo que dicen, hasta que os va a resultar imposible.
#54 Invalida la idea de que "razone" al nivel de un humano
#86, y para qué quieres que razone a nivel humano, si como observador no puedes notar la diferencia?
#96 Claro que puedes. Te acaban de poner un ejemplo
#97, es que no hablo del estado actual de la tecnología, sino de lo que será capaz de hacer en muy poco tiempo. Cuando conteste bien la pregunta: "¿Qué es para mí la suegra de mi marido?"
Que lo hará. Seguiréis diciendo que da igual, que en el fondo no razona como un humano.
#98 Que conteste esa bien es fácil. Pero fallará otra que un humano resuelve casi sin pensar.
Sin entrar en el pensamiento creativo ...
#86 Razona bastante mejor que la mayoría de los humanos.
#54 Tiene que habe gente de todo tipo, pero sorprende que se desmerezcan los avances de la IA, cuando el estado actual era inconcebible hace dos telediarios. Y los defectos y errores pues son esperables en una tecnologia tan nueva y es sorprendente lo rapido que avanza.
Sobre la conciencia: va ser un debate ¿interesante /inquietante? porque no hay un test que nos sirva para decir que tenemos consciencia o alma o algo asi y nos diferencie de la maquinas.
Al final deberemos acepta que la maquinas pueden tener conciencia o que nuestra conciencia natural es una ilusion?
#54 Pero es que que ChatGPT no entiende (mejor dicho, no es capaz de razonar) lo que le escriben no es una opinión, es un hecho.
Lo que no quita que sea un avance increíble, pero no es lo que algunos pretenden, no se acerca siquiera a la Inteligencia Artificial Fuerte.
De qué va esto?
#1 El milenarismo. Que ya por fin va a llegar.
#1, de qué va a pasar en un futuro próximo con la IA.
Yo tengo un deja vu, de lo que pasó con el Covid. No se si en 2023, pero la IA va a cambiar el mundo tal y como lo conocemos completamente en relativamente poco tiempo y no estamos, como sociedad haciendo los debates que nos tocaría hacer. Luego y a pesar de que a día de hoy la evidencia es ya abrumadora, se dirá que "no se podía saber".
#32 Haz una prueba, pregúntale a ChatGPT "¿Qué es para mí la suegra de mi marido?" y se te baja el hype. Que no dudo que tenga millones de usos brutales, pero le falta la clave, comprender.
#48 como al 80% de los seres humanos 😂
#50 están a años luz de pensar como un humano, pero hay muchos humanos que no piensan mucho..
#48 Dale tiempo.
#52 ¿Cómo al coche volador y al año de Linux en el escritorio?
#95 Tú mismo, no tengo por qué convencerte.
Si piensas que la IA no va a avanzar más de como está hoy y que es como "el coche volador", pues adelante. Es tu problema.
#48 Muy bueno.
Tras unas cuantas vueltas he conseguido que se ponga en la situación en la que le estoy diciendo que está equivocado. Al final se ha liado y me ha dicho:
Lo siento por la confusión. La suegra de tu marido es la madre de tu marido, y mi respuesta original se basó en esa información. Si la suegra de tu marido es tu madre, entonces la relación que tienes con ella es la relación que tienes con tu madre. Si necesitas ayuda o tienes alguna pregunta sobre cómo manejar o mejorar tu relación con tu madre, estaré encantado de ayudarte. Por favor proporciona más información sobre tu pregunta o dilema y haré todo lo posible para ayudarte.
#56 También cabe la posibilidad de que te apellides Borbón y estaría en lo cierto.
#48 No seré yo quien te meta el miedo en el cuerpo, pero te aviso de que midjourney, stable difussion y dall-e se están cargando trabajos de forma efectiva, pero si tu te consuelas así... pues oye, por mi perfecto
#69 Eso dijeron los reprtidores de hielo con los frigoríficos.
#88 SI los repartidores de hielo comprendieron la dimensión de lo que ha significado el frigorífico, hicieron bien en estar alerta, lo que me sorprende y me alarma a partes iguales es que no se esté hablando de algo tan importante como esto en ningún medio generalista
#89 Ahí llevas la razón.
#89 A mi no me sorprende. Los medios generalistas tienen su propia agenda y sólo les interesa comunicar las noticias que se ajustan a sus intereses, no a los intereses de los demás...
#89 Nunca se habla de nuevas tecnologías en el momento en que se introducen, salvo que comercialmente sea necesario para obtener beneficios económicos.
Al rebaño cuanta menos información se le dé, mejor. Que luego vienen las protestas y las movidas.
#48 A mi el hype se me pasó cuando le pregunté una cosa que no sabía y la respuesta se la inventó por completo y diciéndotelo de manera convincente. Le dices que no es cierto lo que dice y se inventa otra. Es el chat cuñado, como para fiarse de nada
#32 Ya hay debates otra cosa es que no lleguen a donde deberían llegar mientras nos distraen con el enfrentismo y la polarización, pero busca y encontrarás como se discute si las empresas deberían pagar por robots(ya sean físicos o virtuales) y el futuro de la sociedad debe ser algo parecido a the expanse donde sólo unos pocos van a trabajar y el resto vive de una renta básica
#32 ¿Y el deja vu de los coches autónomos y de la RA y la RV?
Yo trabajaba en el sector RV en pleno hype y podría copiar y pegar las mismas conversaciones que tuve entonces.
De hecho, si entrenara un modelo con las conversaciones que tuve entonces podría responder a muchos comentarios en meneame automáticamente. Entonces la prudencia y ceñirse a la tecnología era la opción argumentativa correcta y lo sigue siendo.
#32 Si esta habiendo debates a nivel Europeo, otra cosa es que nosotros no nos enteremos.
#32 Es acojonantemente disruptivo lo que se nos viene encima. Y el vídeo incluido es sumamente didáctico y esclarecedor. Las ramas científicas de los gobiernos deberían entrar a fondo (sí todavía no lo han hecho) en este fenómeno, tan trascendental a corto plazo.
#32 Prácticamente nunca hubo debate antes de la introducción irreversible de una tecnología, y esta no va a ser diferente. Los riesgos son brutales, especialmente por esa irreversibilidad.
#1 En 2022 se han producido avances muy importantes dentro de una rama de la inteligencia artificial llamanda "Generative AI" que sirven para mejorar la forma en que la IA genera contenido (por ejemplo, fotos, texto, conversaciones, Etc). Una de los modelos, llamado ChatGPT, llamo mucho la atencion porque pude generar conversaciones, textos, codigo de forma interactiva. ChatGPT es en realidad GPT 3.5. En 2023 se lanzara GPT-4 que sera mucho mejor que los anteriores.
Aqui tienes los siete avances mas importantes respecto a la IA de 2022
“Por favor, disminuya la velocidad”: las 7 historias más importantes de IA de 2022 [EN]
“Por favor, disminuya la velocidad”: las 7 histori...
arstechnica.com#45 Tendrán que crear un estándar de programación o intención, regulado por ley para crear estas IAs, para asegurarse de que no hay mala intención en la creación de una herramienta que hace de los humanos, herramientas de esta al ser usada, cuestión de respuestas correctas o incorrectas, hasta que no funciones de manera complementaria a la IA, entonces la IA no hará lo que tu quieres que hagas ¿no tendría que ser al revés lo de quien complementa a quien?
#84 No hay manera de hacer eso que dices. Estas IAs no son controlables.
#1 Sin acritud, pero tu pregunta inocente representa al 95% de la población, y eso a mi me da MUCHO miedo
#68 da más miedo tu respuesta
#85 Pués si te da miedo mi respuesta es porque posiblemente no la has entendido
#87 o porqué estoy curado de fantasmas
#92 Vaya por dios.... ¿podrías explicarme porque las ias te parecen un fantasma?
#1 ¿preguntas por la imagen de tu avatar?
Pues me tendrán que perdonar los visionarios de las IAs, pero como sea como ChatGPT, la verdad es que no me impresiona mucho:
Y yo he tenido "conversaciones" con ChatGPT en los que los errores, como muestra ese tuit, eran garrafales, pero, vamos, de bulto.
#21 Bueno, es normal. La cantidad de datos con la que hay que alimentar el modelo es una burrada.
Si quieres que responda cualquier cosa tienes que añadirle, literalmente, todas las cosas que se han dicho y escrito nunca.
Además, la cantidad de datos es tan enorme que no se pueden verificar, por lo que siempre se introducirá algo de información falsa.
Lo lógico es que en siguientes versiones puedan responder este tipo de preguntas mejor; si como dice en la noticia el grupo de datos introducidos es al menos cinco veces más, encontraremos una gran mejora.
#21, #24, precisamente chatgpt es muy mala dando datos exactos porque no se limita a repetir de forma literal las cosas con las que se ha entrenado. Ir a una base de datos a buscar la altura exacta del Everest es algo que ya se podía hacer con la tecnología de los años 60 del siglo pasado.
Gpt-3 es mucho más que eso y puede que al ojo experto no le impresione, porque ve que se equivoca allí donde el asistente de google hace años que no falla. Lo disruptivo de chatgpt es que te puede contar un cuento de Navidad con referencias al pensamiento de Kant o inventarse el título y el argumento de la próxima novela dentro del universo de Harry Potter. Y eso, sin que nadie lo haya hecho antes.
Los errores e inexactitudes se arreglarán reentrenando el modelo, lo relevante es que demuestra que es capaz de construir de manera interna representaciones abstractas de conceptos y aplicarlos a situaciones que no ha visto antes sin que sea necesario que sea consciente o que su forma de funcionar se parezca a la nuestra.
#34 Lo disruptivo de chatgpt es que te puede contar un cuento de Navidad con referencias al pensamiento de Kant
Siempre que no te importe que se pueda inventar las referencias al pensamiento de Kant ...
#62, a estas alturas no me importa demasiado, porque eso se arreglará en la próxima iteración.
Hacer una búsqueda exacta de la fecha exacta en la que nació Kant es algo que hace perfectamente el asistente de Google y que se puede hacer con tecnología de los años 60 del siglo pasado.
Lo relevante de chatgpt y los últimos LLM es que han demostrado la capacidad de construir internamente abstracciones de los conceptos con los que se han entrenado y saber cuando aplicarlas. Aún con bastantes fallos eso es disruptivo y valida la línea de investigación en deep learning que se ha seguido durante los últimos años.
Está bien poner el foco allí donde falla para seguir mejorando los modelos, pero nos equivocaríamos si no viéramos cómo han evolucionado estos modelos en pocos años y el potencial que tienen solo porque no son 100% precisos. Algo que en mi opinión lo que hace es demostrar que no se limitan a repetir como loros, tal y como algunos afirman.
#63 a estas alturas no me importa demasiado, porque eso se arreglará en la próxima iteración.
No, por lo que he entendido las alucinaciones es un problema sistémico, no saben como corregirlo.
https://www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495/
#75, el primer consejo número uno que te doy es que no hagas demasiado caso de Gary Marcus. Lleva 10 años despotricando contra cualquier avance que tenga que ver con el deep learning y el tiempo no para de dejarlo en evidencia.
Cuando salió gpt-2 publicó un artículo explicando el porqué estos modelos de lenguaje no eran capaces de razonar y jamás lo serían y para ello ponía una serie de ejemplos para demostrar su tesis:
https://thegradient.pub/gpt2-and-the-nature-of-intelligence/
Hoy gptchat supera con creces todos y cada uno de los retos que le planteó Marcus en aquel entonces. Puedes comprobarlo tu mismo.
Si bien es cierto que el problema de las alucinaciones existe, con gptchat han conseguido reducirlo bastante, parece que el método de aprendizaje por refuerzo que han seguido mejora bastante los resultados sin tener que incrementar el tamaño del dataset de entrenamiento, ni el número de parámetros del modelo:
Con eso lo que te vengo a decir es que no nos creamos al primero que se ponga la vitola de experto en un tema porque hay personajes como Gary Marcus que el tiempo no para de quitarles la razón.
Y si no me crees a mi, mira lo que dice otra de las voces más autorizadas en la materia como es Yann Lecun, reciente ganador del premio príncipe de asturias y al que el tiempo sí le está dando la razón:
#82 Me miraré los links, que no soy entendido en el tema, pero se ve bastante interesante. Gracias.
#34 Es decir, que ChatGPT es la IA cuñao
#34 No se trata sólo de que dé datos ciertos, que tampoco, es que ni siquiera es capaz de resolver problemas sencillos. Por ejemplo, el que corre por ahí de "Perro+rata, gato+rata…", etc. Es un problema sencillo, pero que MUY sencillo, se puede resolver en un solo paso: necesitó cuatro o cinco intentos, y eso a base de decirle por dónde se iba equivocando.
Como se ha visto en un artículo aquí, el del discurso del rey, usa palabras que no existen. Así que, como ya ha dicho alguien, sí, es posible que haga un cuento basado en el universo de Harry Potter haciendo referencias al pensamiento de Kant, siempre que no te importe que ese pensamiento de Kant sea inventado y que ese Universo sea el de Harry Popotter
#21 Mientras se lo enseñaba a mis alumnos le pedimos que calculase la concentración en % en masa de una mezcla de etanol y agua, dándole las cantidades y la densidad del alcohol. Lo hizo mal, tomó como masa de la disolución solo la masa del disolvente, el agua. Falla en cosas bastante básicas.
¿Qué es lo que me pierdo de poner los tweets en una app que te endiña publicidad por un tubo mientras que en Twitter hay menos? ¿Os lleváis comisión de afiliados o algo así?
#4 Hasta hace poco Twitter bloqueaba la lectura de hilos largos a usuarios no registrados, y la web que ha enviado #0 era la única forma de que todos pudiesen leer el envío.
Ahora que solo hay que cerrar el aviso tienes razón, pero la fuerza de la costumbre hace que mucha gente siga usando thereaderapp.
#6 Gracias, imaginaba que debía tener alguna explicación porque en un repositorio de analfabetos y piratillas, que ni siquiera saben que los adblockers se convirtieron en simples chantajistas de listas blancas, no es común llevar el tráfico a algo que tiene Adsense de por medio.
#4 ¿qué publicidad?
#7 #4 Limpito, limpito (by uBlock Origin)
#9 Que, a estas alturas, haya gente aún sufriendo la publicidad me fascina.
#4 ¿App? ¿Publicidad? ¿Pero tu dónde has entrado?
#4 No se donde te has metido, pero chatgpt no tiene nada de publicidad
#4 uBlock es tu amigo
GPT no era el padre de Pinocho?
#43 las UI tuvieron su desilusión cuando nos dimos cuenta de que desde una shell sigues pudiendo hacer ciertas tareas de manera más rápida y precisa.
Internet y los smartphones: ¿alguien se acuerda del concepto "nativos digitales"? Las nuevas generaciones siguen siendo "usuarios básicos" , siguen sin entender gran cosa temas de seguridad y privacidad y no son capaces de montar su propio PC.
De los procesadores: cuando se especulaba sobre las generaciones futuras de éstos en los 80,se pensaba que la RV y la IA se lograría gracias a avances en hardware que se incoroorarian en los 90 y primera década de los 2000, intel esperaba llegar a los 10nm y 10 Ghz sobre el año 2005.
Pues si le llega un email de su exnovia de los 15 años se le helará el esperma y acto seguido sufrirá un ictus.
Notable mierda de vida hay que tener para que se te hiele la sangre con soberana intrascendencia. O notable es el sensacionalismo que destila para darse importancia en un tuit tan pretencioso. Los influchachos ya no sorprenden.
Qué triste es sentirse un gran humano a costa de deificar el desarrollo de las máquinas y sus automatismos.
Habiendo trabajado yo en estas mierdas, nada me alegra más que alejarme de esas virtualidades ajenas a la existencia. Si quiero que se me hiele la sangre escalo a 4000 metros o salgo a cortar leña (que así se te deshiela por duplicado).
Nada me emociona menos que entrenar un modelo DL para que haga algo que yo antes disfrutaba haciendo con mi cerebro y mi tiempo.
Deep Learning es la fuerza bruta de las ciencias de la computación. La sangre solo se hiela con la belleza (o con el dolor).
Preguntale a chatgpt como cayo en viernes santo de 1964. Es una pregunta facil. Preguntale como se calcula la pascua. Se lo sabe y te lo dice. Pero cuando se le dice que ha cometido un error ( le sale que el domingo de pascua de ese año es antes que el viernes santo) te pide mil disculpas, que lo siente, pero no cambia la forma de calculo ni lo arregla. Es como un terminator, va a lo suyo. Para ser IA deberia ser capaz de reconsiderar sus respuestas, mas aun si reconoce que hay un error.
Billones de variables y no es capaz de bajarse del burro
Madre mía el humo
#71, ok, según tu no habrá jamás una prueba del algodón. Ni que lleguemos a tener una IA conversacional del estilo de la que aparecía en la película Her podremos dejar de decir que se limita a repetir.
Tu opinión me parece respetable, pero creo que es más un debate metafísico que otra cosa y como tal me interesa relativamente poco.
Yo prefiero centrarme en la tecnología actual y su capacidad real de transfomar el mundo, y para ello es fundamental tener una forma de medir su desempeño pata poder seguir mejorándola. De momento, el crecimiento en capacidades de estos modelos es espectacular y sigo opinando que muchos trabajos intelectuales van a ser automatizados en gran parte en un período de tiempo relativamente corto.
#44, no he dicho que ahora haya pruebas objetivas de que ya se pueden eliminar el 99% de trabajos intelectuales, sino que el 99% de trabajos intelectuales no se dedican a crear nuevo conocimiento sino a aplicarlo.
Lo que digo es que hay pruebas empíricas de que estos modelos entienden los conceptos y no se limitan a memorizar y repetir. Insisto en el ejemplo del tutú, porque demuestra que lo que ha hecho es comprender que un tutú es una pieza de ropa que va de cintura para abajo y lo aplica a un contexto que no ha visto jamás. Igual que hacemos las personas cuando nos explican nuevos conceptos.
#57 Precisamente por eso se dedican a memorizar y repetir. Porque el modelo ha sido entrenado con cientos de miles de fotos donde alguien ha etiquetado manualmente un tutú en una posición en específico y el sistema lo sabe y lo aplica.
Los modelos no hacen nada para lo que no han sido entrenados.
Una IA no generará libros con referencias a Kant si no se le ha entrenado con miles de libros con referencias y miles de textos de Kant y, por lo tanto, sabe qué hacer cuando se lo piden.
#64, le puedes preguntar a ChatGPT cómo emanuel Kant entendería el fútbol moderno, algo que no ha visto ni leído jamás y te dará una respuesta más bien hilada que el 99.9% de seres humanos. No está repitiendo nada con lo que se ha entrenado. Sino que sabe relacionando los conceptos a partir de las representaciones internas que ha construido.
Pero vamos, me gustaría saber según tú, cual es la prueba del algodón que te permitiría diferenciar sin lugar a dudas que está entendiendo como los humanos en lugar de repetir lo que ha visto antes?
#67 Te pondrá las definiciones de "fútbol moderno" que encontró con el concepto de "estilo" con las que fuera etiquetado más la información sobre los textos de Kant.
No existe prueba del algodón. Es que no es posible que haga nada más que repetir. La tecnología se basa en ello y los resultados son espectaculares si entiendes cómo se hace y lo que hace pero siempre estará repitiendo.
Si entrenas un modelo con miles de variantes sobre un tema las podrá unir para darte una sensación de inventiva, pero lo que está haciendo es comportarse acorde la información proporcionada en su entrenamiento.
#64 Me parecería casi entrañable que alguien como tú hablara con el desdén con el que hablas de una tecnología claramente disruptiva mientras expertos en la materia se ven sobrepasados por el ritmo del avance de las ias si no me diera tanto miedo, y es que si hay algo peor que un cambio radical en la sociedad, es un cambio radical en una sociedad que no se lo espera
Hemos cruzado el umbral de la tercera revolución industrial, yo giraría la cabeza hacia adelante porque vienen curvas
@zorrindongo, al parecer será ya en 2023 GPT-4...
#76 No, no lo sé. ¿Tienes más información,?
#77 Debido a que no puedo dar detalles específicos, solo te diré que en mi empresa ya han sido despedidas dos personas, porque su trabajo era de facto 100 % sustituible por lo que se puede lograr a dia de hoy en minutos con una ia, y la empresa donde trabajo no es siquiera una de las más grandes del sector y además me consta (por colegas que tengo dentro) que esto mismo se está repitiendo en sitios como ea, gameloft y similares
#58 Ay compañero. Me estás recordando TANTO a los que decían que en un par de años todos los coches se conducirían solos...
Es ciertamente tierno.
#66 Y voladores, no te olvides de ellos.
Todavía estás en fase de negación, te quedan unas cuantas más, ¡ánimo!
#60 Explica los rumores que ha estado leyendo sobre lo que se viene.
Es una cadena de tweets, tampoco es un artículo sobre el asunto, sino una puesta al día a sus seguidores de distintas fuentes donde se apunta a algo disruptivo.
Otra cosa es si ese análisis, que es de rumores sobre futuribles, merece una portada de Menéame, pero eso ya es cuestión de la comunidad, el autor no tiene ninguna responsabilidad en eso.
Los sangrehelada no son de fiar.
...lo que viene??? ... cagon diez, lo que viene es skynet...
me he cagado de miedo, y no es broma
#10 Vamos directos a ello.
Si conseguimos que sea más inteligente que nosotros y consigue consciencia, algo que no sabemos como emerge y por ello puede hacerlo sin que sepamos que ha ocurrido, la cosa puede ser completamente imparable.
Pasaremos a ser los chimpancés del planeta, bastante inteligentes pero supeditados a lo que decidan los humanos, en este caso nosotros supeditados a lo que decida la IA. Porque nos creemos muy poderosos pero es porque somos los más inteligentes, si perdemos eso el poder que creemos tener se puede desvanecer en un instante.
#12 y yo pensando "bueno, pues desenchufas la máquina", pero la máquina ya, con previsión, se habrá instalado en otras, y llegará un día a mi teléfono, donde yo nunca tuve instalado nada relacionado con IA, pero la máquina habrá aprendido a romper el código, y empezará a hablarme con la voz de mi madre simulando una llamada, o llamara con mi voz a mi mujer y le contará algo de nuestros hijos. 😲
Joer, no sé lo que pasará, pero se lo están poniendo difícil a los escritores de cyber-apocalipsis, porque la realidad les está adelantando.
PD: lo de la voz viene porque hoy estuve instalando otro Chromecast y me hizo la típica prueba de reconocimiento leyendo varias frases. Eso sumado a toda nuestra voz que tiene recopilada de órdenes al mandito blanco...
#12 mae mía, ya no saben que inventar los del contubernio judeomasónico para implantar la dichosa Agenda 2030 cuanto antes... primero sacaron lo del COVID, luego la crisis de los microchís por las "cristos", después la guerra Ucrorusa con la crisis energética asociada y ahora nos lanzan la Skynet esta... jummm, abraze bisto... pvta bida tt
#12 ¿Qué droga fumas? Esta debe ser la nueva fantochada en la que andas metido después del desastre ese del blockchain que no sirve para nada ahora has escogido la nueva ola de magufadas, es que no falla.
#47 Otro que no se ha enterado de lo que está pasando con las ias ¿que tiene que ver el blockchain con esto?
#12 No hace falta que tenga consciencia. No es necesario tener consciencia para derrotarnos.
#10 Lo que viene es un sistema que ha sido entrenado con muchísimo texto y es capaz de generar muchísimo texto de una forma, se espera, bastante inteligente.
Si le preguntas a chatGPT para qué sirve chatGPT te dirá que sirva para hacer chatbots. Un chatbot es eso que te ha puesto Vodafone para "responder tus dudas" y "solucionarte problemas" mientras intentas hablar con un ser humano que pueda darte asistencia de verdad.
En el mejor de los casos, y no hablo de GPT4 sino de versiones posteriores, se podrá hacer algo como "invéntate un chiste y escríbelo como si lo estuviera contando Chiquito de la calzada" y el sistema estará lo suficientemente entrenado como para saber que nos hace gracia si alguien de Lepe hace el tonto, identificará qué cosas nos hacen gracia porque lo hacen los tontos, y lo escribirá añadiéndole las coletillas "fistro", "pecador", "te das cuen" .
¡Ojo! he dicho inventarse un chiste, no coger uno que se le introdujo como parte del entrenamiento y ponerle coletillas del Chiquito de la calzada. Inventárselo, de cero. Creo que es algo a la que la tecnología podrá llegar.
Las IA NO pueden ser inteligentes y NO pueden ser reflexivas ni tener conciencia mientras se generen mediante Machine Learning. Las IA son robotitos de repetición. Lo único que saben hacer es repetir lo que se les ha dicho antes.
Si encuentran algún otro sistema para generar IA, que no es el caso de esta noticia, quizás se consigan todas esas cosas. Pero estamos increiblemente lejos porque las estrategias de Machine Learning son las que mejor se acercan a las necesidades del mundo empresarial. En el mundo laboral, que un sistema sea entrenado y te diga si algo se está haciendo bien o mal es valioso. Por ejemplo en las cadenas de montaje, si entrenas un modelo con millones de fotos de tornillos y pones una IA a revisar tornillos en una cadena de montaje te podrá decir cuáles están mal hechos y retirarlos.
#19 Las IA NO pueden ser inteligentes y NO pueden ser reflexivas ni tener conciencia mientras se generen mediante Machine Learning. Las IA son robotitos de repetición. Lo único que saben hacer es repetir lo que se les ha dicho antes.
Pero es que no necesitan ser inteligente ni reflexivas para convertirse en una herramienta brutal que entrará de una manera disruptiva en muchas actividades económicas y empleos.
#26 Lo comentaba porque ya se estaba hablando de lanzar misiles y de skynet.
De momento todos los intentos de hacer herramientas disruptivas han fracasado. Es normal, porque generalmente si quieres un sistema que funcione en el mundo laboral debe dar una calidad mínima elevada y esto seguramente solo se consiga si es un sistema dirigido. Para que sea así, alguien tiene que ir diciendo dato a dato si es correcto o no, lo que es inviable si lo que quieres es tener un sistemá mágico que haga cosas mágicas.
Y esto lo escribo mientras preparo la planificación de un proyecto para desarrollar modelos entrenados especialmente diseñados para un ecosistema industrial en específico. La tecnología ayudará, está para ello. Vamos, lo creo porque también es parte de mi trabajo y ocupa parte de mis responsabilidades laborales. Lo que no va a hacer es cambiar el mundo, ni va a automatizar millones de puestos de trabajo, ni nada por el estilo.
#28 Em... ¿sabes que md,sd y dall-e están acabando con algunos trabajos a dia de hoy verdad?
#26 muchas de personas que conozco no son inteligentes,
#19 La reflexión no es más que el descarte de opciones en base a una experiencia y razonamiento (que no siempre es correcto), que es la base del pensamiento humano: el descarte de opciones seleccionadas, que muchos llaman pensar. El problema es que una máquina no necesita reflexionar de la misma manera. No necesita descartar por intuición, puede analizar un conjunto de datos mucho más grande que nosotros de forma mucho más rápida. Y entrenarse en ello también de forma mucho más rápida.
Por eso que comentas se decía hace unos años que nunca habría una máquina que jugase al go de forma profesional. Demasiadas opciones de movimiento y nula intuición y visión general de juego. Pero ahí están a día de hoy... Han compensado sus carencias con sus fortalezas.
Además tienen otra ventaja: no hacen faltas IA´s generalistas como estos botchats, sino especializadas en resolver problemas concretos.
#19, me encanta la autosuficiencia con la que habláis de esto los que criticáis la forma de funcionar de los algoritmos de machine learning actuales, sinceramente no se si os dedicáis a ello o tenéis algún background académico o simplemente habéis pillado por ahí algún artículo de personajes como Gary Marcus y os ha bastado para descartar de plano el deep learning como línea de investigación principal sobre ello.
Yo personalmente creo que la ciencia ficción ha hecho un enorme daño y os pensáis que hasta que no se logre una hiperinteligencia consciente de si misma, no se va a lograr resolver gran parte de los problemas de la IA, y todo lo que se hará será crear robotitos que repiten.
Déjame que te diga que tu comentario va a envejecer muy mal, que aún sin haber un consenso total en la comunidad académica, la gente que se dedica a ello está, en su inmensa mayoría, muy revolucionada sobre lo que va a pasar. Después de un 2022 en el que aparecieron Dall-e 2, Stable Difussion o chatgpt, decir que son modelos que solo rejuntan cosas que han visto, está muy fuera de lugar, porque nadie en toda la puta historia le ha pedido a uno de estos modelos que pinten un Picachu con tutú o que explique el pensamiento de Platón y lo hace jodidamente bien. Usando redes neuronales.
Yo dejaría de arrogarme con tanta soberbia el repetir para despreciarlos que estos modelos son loros de repetición que jamás van a generar nada nuevo porque simplemente repiten lo que saben. Aún si eso fuese cierto, y no lo es, podrían sustituir el 99.99% de tareas intelectuales que desempeñamos los seres humanos y que no crean nuevo conocimiento.
#30 No es arrogancia, es bajar un poco los humos de la ciencia ficción y explicar bien lo que de verdad se está hablando.
Le hacéis un flaco favor a la tecnología lanzando esos órdagos y jugando con todas esas fantasías, porque mucha gente se las cree y cuando llegan los resultados reales y no están a la altura se pierde la confianza en la tecnología.
Si quieres un ejemplo, fíjate en lo que han hecho con las tecnologías de realidad aumentada. Cómo las gigantescas expectativas han retrasado su implementación y cortado los fondos.
Claro que esa IA ha sido entrenada con fotos de Pikachu. Y con fotos de tutús. Por eso saben qué es un Pikachu y por eso saben qué es un tutú y por eso hacen Pikachus con tutús. Y si le dices que un tutú es un avión de colores pues tendrás a Pichachu montado en un avión de colores cuando esperas que esté vestido con un tutú. Y si le dices que Pikachu es Boris Yeltsin en pelotas tendrás a Boris en pelotas sobre un avión de colores. Porque no es capaz de inventar.
Y no, no van a sustituir el 99,9% de las tareas intelectuales. Igual que no estás viajando en un coche completamente autónomo. Son exageraciones de personas que no han implementado un sistema de inteligencia artificial en un entorno laboral en su vida.
#33, no pretendo hacer un favor a la tecnología sino de rebatir la línea de pensamiento que dice, falsamente que el deep learning solo consigue repetir lo que ha visto, porque es algo empíricamente falso.
Yo soy el primer sorprendido, no de lo que está pasando sino de la velocidad con la que está pasando y vengo de años en la academia y luego en la industria dedicándome a ello. 2022 ha sido una completa locura.
No se cuando ocurrirá ni en qué porcentaje, pero deberíamos estar debatiendo cómo vamos a integrar a nuestra sociedad la disrupción que supondrá las IAs avanzadas que van a llegar y que nada tienen que ver con las IAs conscientes de la ciencia ficción ni falta que les hacen.
#36 Estás en la curva alta del hype, luego llega la colina de la desilusión y por último, la aceptación e implementación real de la tecnología
https://en.wikipedia.org/wiki/Gartner_hype_cycle
Llevo demasiados años y usando y trabajando con demasiada tecnología viendo una y otra vez el mismo proceso. No se ha visto aún un "hype" que se implemente en el día a día del mundo real sin pasar por la curva de la desilusión.
Quizás la del chip, pero yo no la viví.
No se cuando ocurrirá ni en qué porcentaje, pero deberíamos estar debatiendo cómo vamos a integrar a nuestra sociedad la disrupción que supondrá las IAs avanzadas que van a llegar y que nada tienen que ver con las IAs conscientes de la ciencia ficción ni falta que les hacen.
Esto lo viví de primera mano con la realidad virtual. Una tecnología que quita el hipo y que por narices lo va a cambiar todo... y no cambió nada. Entre una tecnología impresionante y su uso en el mundo real hay un universo.
#40, ninguno? Así a bote pronto me vienen a la cabeza los sistemas operativos basados en interfaz gráfica, Internet o los smartphones.
Creo que en 2022 ya hay pruebas objetivas de que el deep learning no es poner a monos delante de un teclado como dice Garry Marcus.
#43 ... y sin embargo no hay ni una sola prueba objetiva de que puedan "realizar el 99,99% de las tareas intelectuales que realiza el ser humano".
De hecho, si no me equivoco, lo único que pueden hacer bien es jugar a algunos juegos de mesa. Y no tiene nada que ver con la mejora en la creación de los modelos de texto e imágenes de estos últimos años.
#30 Qué concepto de tarea intelectual tendrás si piensas que la IA (que está muy lejos de merecer ese nombre, por mera definición) va a poder sustituir ese porcentaje de ellas...
(no, ni de lejos, si ni siquiera puede con tareas tan intelectuales como conducir un coche de manera autónoma en una situación de tráfico real)
#49, el problema es que no entendéis que lo que es fácil para los humanos puede que sea muy difícil para las IAs y viceversa.
Dudo que ni tú, ni el 99% de personas, sean capaces de pintar un óleo mejor que Midjourney o explicar el pensamiento de Platón con un símil futbolístico mejor que gptchat. Y eso que ahora estamos en la prehistoria de estos modelos.
#55 Acabas de cambiar de 99%, imagino que lo sabes. No es lo mismo sustituir el 99% de las tareas intelectuales que se hacen, que el 99% de las que no se hacen pero podrían hacerse. Has cambiado de cosas tangibles a cosas potenciales, y no tiene nada que ver una cosa con la otra. De hecho, ni siquiera me has respondido como tal. Asumes que yo creo y pienso cosas que no he dicho, huyes hacia delante, y empiezo a intuir por qué crees lo que crees sobre el futuro de las IA. Me han venido a la cabeza los estudiantes que se creen que redactar es juntar frases relacionadas de cualquier manera, y que se sorprenden cuando eso no funciona.
Por otro lado, ninguna IA pinta óleos, y esas confusiones interesadas son parte del problema del hype actual, igual que juntar frases no es lo mismo que redactar. Y respecto a explicar Platón con un símil futbolístico... Llevamos explicando a Platón milenios ya, no sé cómo un símil más es que algo que pueda considerarse un logro de ningún tipo. Quien quiera entender a Platón que lo lea, y sacará más de la experiencia que lo que una IA le diga al respecto.
#19 Que sean inteligentes o no, no es el asunto. Sin entrar en la definición de inteligencia.
El asunto es que harán cosas de forma autónoma, y muchísimo mejor que nosotros.
#19 Este comentario quedará desfasado en 3...2...1.... jajaja, pobre.
#19 De acuerdo con lo que dices, y añadiría que el mayor problema de estas IAs conversacionales es que ni ellas ni quien las lee (excepto un experto) son capaces de distinguir si su respuesta es verdadera o falsa.
Dicho de otra manera (sobre ChatGPT): "el principal problema que tienen (de momento) es la imposibilidad de obtener una explicación, demostración o trazabilidad de cómo se ha llegado a ese resultado.
O sea, el resultado no sirve de nada si no hay detrás algo que respalde su validez.
Sin eso, no sabemos si lo que nos dice la IA es correcto o incorrecto, como se puede ver aquí: twitter.com/laughinghan/status/1598504175393906688"
#10 Que Don Asimov nos coja confesados.
No se si lo de "un shock como el Covid" lo dice positivamente o negativamente
#11 básicamente todos los trabajos no físicos los realizará el gpt ese y todos a un ERTE como en covid. Bueno... más bien ERE...
¿Y qué es lo que va a hacer que un fulano cualquiera “deje todo” cuando salga GPT-4?
#13 bueno, ese "fulano cualquiera" es un divulgador de temas informáticos que últimamente ha estado muy activo analizando y divulgando todo lo relacionado con la inteligencia artificial.
No significa que cualquier persona anónima la vaya a dejar todo y vaya a sentir ese escalofrío, sino que él, sí.
#16 Pues no ha explicado nada ...
Esté sería un toque de atención fuerte para aquellos profesionales que se han dormido en los laureles y no salen de su zona de confort ya con olor rancio. Ahora hay que trabajar muchísimo más y con mucha más inteligencia, disciplina y creatividad para no ser alcanzados por lo que hace una inteligencia artificial.
Es simple: si una IA te ha alcanzado es que eres un puto parásito perezoso de mierda, espabila, mueve el culo, ponte realmente a estudiar y a producir mejor.
#37 Las bobadas que hay que leer...
#37 Si una IA alcanza al mas inútil y perezoso de los programadores, tardará dos telediarios más en alcanzar al mejor.
El cambio climático va se va a quedar en nada comparado con el advenimiento de la IA
Un día algo hará contacto donde no debe y ya verás la que se va a montar...
Es absolutamente bestial el hecho de entrenar estos modelos de manera automática y que de ellos emerjan funcionalidades como las de un traductor o un clarificador de contenidos entre otros. Quizá hemos encontrado la fórmula para implementar inteligencia en un sistema inorgánico o solo para imitarla sin entender exactamente qué es esta