Hace 11 meses | Por JanSmite a xataka.com
Publicado hace 11 meses por JanSmite a xataka.com

Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí. Es una lástima que Julio Alonso y Antonio Ortiz no reciban el suficiente reconocimiento. Ellos fueron los fundadores de esta página en noviembre de 2004, pero Google Bard no acierta. Tampoco lo hace ChatGPT.

Comentarios

Condenación

No miente, cambia de opinión.

Condenación

#43 No pretendía herirte, disculpa.

JanSmite

#1 Ahí te doy toda la razón, pero, dada la calidad de las dos IA, estaba pensando en la vieja factoría

Dalit

#1 lol lol lol lol lol

Zade

#1 "ia de puta"

JanSmite

#2 Se dice Feikjóo

reithor

#10 A mi el autocorrector me destina a "frijol" , pero claro, la fonética puede tener esos tintes finlandeses que propones.

D

#10 lol lol lol lol lol

TonyStark

#2 es un de manual, pero ha tenido su gracia lol

reithor

#63 Nunca llegaré al nivel de Chiquito de la Calzadorrrl! pero el esfuerzo no me lo quita nadie.

B

#2 comparar a feijoo con cualquier tipo de inteligencia me parece muy ofensivo, para la inteligencia, evidentemente

D

#5 a ver si van a ser 6 meses

snowdenknows

#8 #23 exacto para que lo entiendan los periolistos y politicucjos, es como si te lees la biblioteca entera de Alejandría y luego te preguntan una fecha concreta de algo... y más aún si es la fecha que se fundó la mierda de xakata lol

c

#23 El problema es que modelan el lenguaje tan tan tan bien, que mucha gente cree que "son inteligentes", al nivel de una persona

Lito

#57 ya, pero eso no es problema de la herramienta, ya que precisamente ha sido creada para eso, para parecer inteligentes. El problema está en el desconocimiento de para qué sirven los modelos de lenguaje, y estos artículos sólo generan más confusión.

SrTaleigan

#36 o sea lo mismo que hace el autocompletado de tu móvil pero con un modelo mucho más grande

Qué bueno! No lo había pensado.

S

#49 #36 En cierta forma lo que intenta es predecir que contestaría una "persona" según sus datos de lo que contestaría una persona.

Y hablar de que "parece" que razona #59 casi que me parece entrar en un debate filosófico. Es como un alumno que saca sobrasaliente en los exámenes, ¿ha aprendido algo perfectamente o solo parece? ¿y si luego lo aplica en su trabajo perfectamente o es el mejor? Siempre puedes plantear eso de que "realmente" solo lo parece...

Y sí, pienso que tienes razón, pero no sé hasta qué punto esa afirmación es útil.

l

#22 El principio basico de funcionamiento es intentar aprender cual es la siguiente palabra posible o probable.
Hace nada crear un texto coherente sintetico parecia muy lejano y ahora cotidiano y nos parece poco. Pero es sorprendente que de respuestas que parezcan veridicas.

Como digo el mecanismo pone palabras probables donde toca, pero muchas veces no acierta del todo.
En tu captura, le han sonado empresas vascas y te las ha colocado en un formato que corresponde a la descripcion de un pueblo.
Se puede equivocar poniendo jugadore en el equipo adecuado pero en la temporada adecuada o relacionando falsamente famoso con otros famosos.
No se si hay otra solucion aparte de ir corrigiendo la IA cerrando la diversidad de respuestas.

ChatGPT cuando le pregunto por codigo, me lo hace aproximado pero muchas veces no funciona del todo o falla, En otras cosas, acierta, pero no se si le describo bien los programas.

Me ha ayudado mucho a encontrar pelis que me sonaban pero llevaba años sin conseguir saber cuales eran.

https://chat.openai.com/share/32f6e20e-9b04-4081-9616-075149b87be8

#36 #49 Yo no se si esperaban conseguir un resultado asi. Pero sorprendia que aprendiese a hacer sumas escritas cuatro + cinco igual a nueve. A veces se olvidaba de las llevadas. Tambien le escribia TLTR y te hacia un resumen de lo escrito, era un resultado inesperado.

Hace años lo mas parecido que vi era una pagina de microsoft que te intentaba adivinar las siguiente letra de una contraseña que ibas escribiendo.
https://pdm.com.co/sitio-web-gratuito-de-microsoft-que-busca-adivinar-sus-contrasenas/


#59 #69 Es un ampliacion del problema de poner una palabra adecuada delante del otro. Si al final de un texto pones un pregunta y su respuesta, aprende lo que corresponde despues de la pregunta. que suele ser una respueta correcta.
Si pones de pregunta ¿Quien se como a caperucita? puede saber que al preguntar quien debe dar un personaje del texto y si no esta enrenada adecuadamente te puede responder que el la abuelita o el leñador. #81

MataGigantes

#36 No funcionan simplemente como un predictor de texto. También entiende y razona cuestiones bastante complejas de cualquier ámbito, es ahí es donde reside su mayor valor, no es simplemente en su capacidad de elaborar texto predictivo.

D

#55 No, no razona, solo lo parece. Es un loro estocástico (stochastic parrot).

MataGigantes

#59 Si tú por ejemplo le pones a ChatGPT un texto de varios párrafos, y le dices que detecte una incoherencia y te la saca correctamente, ¿¿eso no es razonar????
Me da igual como le quieras llamar, pero el resultado de eso es igual al que haría el razonamiento de un humano a un nivel que no se había visto antes en ningún tipo de software, ahí es donde reside su mayor valor, no simplemente en el texto predictivo que usa para elaborar su respuesta.

D

#69 No, no lo es. Que parezca que lo hace es sin embargo el peligro de esta tecnología sobre todo cuando nadie parece interesado en informarse sobre como funciona.

MataGigantes

#72 #73 habría que preguntar entonces que es para vosotros razonar. Para la RAE Es "Exponer razones para explicar o demostrar algo." y "Ordenar y relacionar ideas para llegar a una conclusión."
Ambas cosas las puede realizar ChatGPT 4 de forma coherente y exitosa. Por lo tanto, es innegable decir que puede razonar con éxito en bastantes ocasiones. Me da igual que sus razonamientos no funcionen internamente igual que un cerebro humano, eso es otra cuestión en la que yo no he entrado. La cosa es que tiene la capacidad para hacer perfectamente lo que define la RAE como 'Razonar'.

s

#80 No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

s

#75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

S

#83 En mi opinión, como dije, es una cuestión filosófica, además, hasta tu propio texto sería indicativo de que tu no razonas. Lo que dices no tiene NADA que ver con razonar. Una IA no puede experimentar con la gravedad, así como yo no tengo forma de saber si realmente las cosas flotan en gravedad "cero" o no, todo lo que sé es de oidas. ¿Por qué va a creer a unos textos más que a otros? lol

Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.

No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.

s

#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.

S

#93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. Te lo has tomado bastante mal, y todo para no decir nada...

En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.

MataGigantes

#83 Como te ha dicho #85 entonces el problema simplemente está en que no sabes lo que significa razonar.
Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.

s

#99 Y sabe inferir?

s

#85 #99 Lo pasamos a la definición del libro entonces. De los tipos de racionamiento existentes, ¿cuántos domina una IA de este tipo?

- Deductivo: lo hace razonablemente bien
- Inductivo: no lo hace
- Hipotético-deductivo: no lo hace
- Transductivo: este lo hace bien

Con esto en mente, ¿podemos considerar que una IA tiene capacidad de razonamiento? Para mí no

S

#69 No te contestaré, como digo en otro comentario eso me parece que ya entra en una cuestión más bien filosófica. No es una máquina de razonamiento formal, pero tampoco lo eres tu. De todas formas, algo curioso en el ámbito de la IA es que cuando se proponen ciertos problemas para que los resuelva una IA se consideran problemas que requieren "inteligencia".

Sin embargo, cuando se resuelven, general la definición de "inteligencia" cambia, como ganar una partida de ajedrez. En parte tiene sentido, es como iluminar una cueva, tu piensas que con poner una lampara la iluminarías toda, pero cuando la pones, te das cuenta de que hay más cueva de lo que pensabas.

s

#59 #55 tiene razón, lo que pasa es que ha visto tantos textos que la probabilidad de las palabras que llevan a la respuesta correcta es un poco mayor a otras que también serían coherentes, pero eso no lo hace inteligente, sólo lo hace 'más cuñado' en ciertos temas (va a escupir la respuesta más común que se encuentra por internet, usando sus propias palabras, eso si.

s

#36 Llevaba bajando por el documento con tristeza pensando que nadie entendía el problema, me has alegrado el día (la explicación de #47 va bien encaminada pero no es muy correcta). Al principio pensaba que la gente (y los periodistas) no entendían que estos modelos están hechos para escupir textos coherentes (que no veraces). Luego me di cuenta que no les interesaba saber la verdad, es mucho más rentable crear mil noticias con 'La IA dice que...'.

La veracidad de ChatGPT, por poner un ejemplo, viene mediante técnicas de aprendizaje por refuerzo sobre preguntas-respuestas muy comunes. Escalar eso es imposible, no son más que parches. Por eso se pueden circunnavegar haciendo la pregunta de una manera más rebuscada.

S

#71 Es que eso de "predecir" te lleva al debate de si lo que hacemos las personas no es lo mismo, al final se llega a bastantes debates absurdos. De entrada, no sé porque se presupone que lo diga la IA será imparcial, o no tendrá nunca impresiciones.

Hasta diría que lo que yo esperaría es que la IA con acceso a internet sea peor...

Kachemiro

#11 me retracto de mi anterior comentario. Bard se lo inventa todo

danip3

#14 Ya dijeron los empleados de Google que Bard era un mentiroso compulsivo.

eltoloco

#14 #18 hay que entender como funcionan estas IAs. El problema es que las respuestas nunca son iguales. De la misma forma que si le pides a Dall-E que dibuje cualquier cosa, ejemplo totalmente aleatorio roll "dibujame a Feijoo en el barco de un narco", da igual que se lo digas 1000 veces que no habrá ninguna que sea igual que la anterior. Serán más o menos parecidas, pero siempre diferentes.

Con esto quiero decir que aunque ChatGPT te haya dado una vez la repsuesta correcta, no quiere decir que la respuesta que te vaya a dar las otras 999 veces también lo sea. Probablemente muchas si, por eso de que las respuestas se parecen y los margenes de errores se tratan de minimizar, pero no es 100% asegurado que ninguna respuesta sea correcta.

Bard claramente está en sus primeros pasos y le queda mucho que mejorar. Lo han sacado deprisa y corriendo para no quedarse atrás, empezar a probar y mejorarlo de forma iterativa con los datos que vayan recopilando.

SrTaleigan

#27 Pero ahí la diferenciación vendría de integrarlo con el sistema de búsqueda para hacer un hibrido como el que se planteaba desde Wolfram Alpha. El problema viene con el modelo de negocio, este sistema compromete el actual.

https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/

Expat_Guinea_Ecuatorial

#18 Seguro que sobre los temas NWO se sabe bien las respuestas. Ahi sera donde habran invertido mas esfuerzo y por eso el resto es basura

I

#18 Entonces se puede presentar a las elecciones generales.

Azrapse

#14 Mira, mira:

alehopio

#0 #60

Bard isn’t supported for this account

If you’re signed in to a Google Workspace account, your admin may not have enabled access to Bard Opens in a new window .

P

#60 GPT-4 dice "El caballo blanco de Santiago era de color blanco.". Al menos esa se la sabe.

GPT-3.5 responde "El caballo blanco de Santiago es legendario y, según la tradición, es de color blanco. Su nombre proviene de la figura del apóstol Santiago, quien supuestamente lo montaba en la batalla durante la Reconquista española en la Edad Media. La expresión "caballo blanco de Santiago" se utiliza como una referencia icónica a este caballo blanco legendario."

Bard insiste con la misma que mostraste

alehopio

#0 #14 Hay otra inteligencia artificial que da resultados más lógicos, porque realmente hace búsquedas en internet antes de responder (con el fundador de xataka acierta a la primera)

https://you.com/

#60 Pero, por ejemplo you.com te hace el siguiente razonamiento

"if the horse is black, so the color of the horse is black" is a logical fallacy known as affirming the consequent, and cannot be applied universally to determine the color of Santiago's horse or any other object. It is always important to consider all available evidence to arrive at a reliable conclusion.

(no lo intentes en español que parece que pierde su habilidad al traducir)

C

#11 ChatGPT es muy bueno. Alguna se inventa, sí, pero tiene muchísima información correcta. Y para reescribir textos cambiando el tono (más formal, menos, etc ) o que te de resúmenes de algo es genial.

c

#31 el problema es que disfraza absoluta basura con "información buena".

Hay que saber mucho para usarla correctamente

skaworld

Es un problemón, nosotros para los reportes de error para usuarios hemos planteado ayudarnos en IA para que a base del numerico de error que suele ser, si no sabes como apañartelas, indescifrable para el usuario y nos tiene que consultar, pos tirar de API y que le salga una ventanita que le indique al usuario de manera un poco mas legible que coño le pasa usando Chat GPT

Estamos aun en pruebas pero la verdad es que va a tener poco recorrido que lia más que arregla

c

#6 Habéis probado con una BBDD relacional corriente y moliente?

skaworld

#53 pfff eso es lo que tenemos ahora pero la varianza de tipologias y q hacer con ellas es un infierno, la idea era a ver si puede automatizar un poco el rollo pa que no tengamos que meter a manija "uh cuando sale esto dile al usuario haz eso" que si, tira, pero cubrirlo todo nos lleva la vida

(pero tiene toda la pinta de que se va a quedar como esta)

c

#58 Supongo que se trata de ir cubriendo los casos poco a poco. El sistema irá mejorando con el tiempo y al final será "autosostenible".

Poco os ahorraría una IA "general", y daría problemas

skaworld

#61 ya... pero ya tu sabes... nos llego de direccion "mirad a ver si podeis implementar algo con la nueva moda de noseque que hemos pillado licencias y bla bla)

Y se nos ocurrio (por decir algo que es que te enmarronan estas mierdas y dices oiga señor pero usted sabe lo q hago yo? lol ) meterlo pa las ayudas de errores pero ya te digo q la cosa no pinta bien, se inventa las movidas

S

#58 Si tienes más o menos controlados todos los posibles errores y sus soluciones, siempre puedes devolver una solución al azar, en algún momento el usuario llegará a la correcta.

l

#58 El problema que tiene es que necesita muchos datos de entrenamiento. Pienso que seria util en el caso de un foro, a partir de las respuestas de los usuarios, aprendiese cuales son las las soluciones.

Como hace falta muchas interacciones de errores, yo veo que puede ser una empresa aparte especializada en esa asistencia tecnica.
Si es una tarea de una empresa quita mano de obra de otras tareas y tiene poca interacciones para apredender.

#77 Una IA puede funcionar con eso. Le das un feedback de cuando da la solucion correcta y con el tiempo se supone que ira acertando. Un paso intermedio mas profesional seria que la IA sugiriese y un profesional dieseel visto bueno y le dijes "intentalo otra vez"

#104 Mi respuesta no es tan legendaria.
El caballo blanco de Santiago es blanco. Según la tradición, se refiere a un caballo de color blanco que supuestamente montaba el apóstol Santiago durante las batallas en la Edad Media. Esta referencia se utiliza a menudo en canciones, cuentos y leyendas.

La referencia se usa en canciones, cuentos y leyendas? Yo simplemente lo he oido como broma o trampa y no sabia si Santiago montaba a caballo o se metio en alguna batalla.
Es posible que se lo haya inventado porque los caballos se usaban en batallas y haya mas textos donde se hable de usarlos en batallas que para arar el campo.
CC#60

Cuñado

Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo.

No como Xataka... roll

rogerius

#42 Prefiero SD en un ordenador local —para mí no pasa de ser un hobbie.

C

Antonio García Ferreras no es el fundador de Xataka, aunque la IA de Google llegue a decir en algún momento que sí.
Es muy burdo, pero van con ello.

Toranks

Pues os hago una pregunta en serio a todos. ¿De verdad creéis que ChatGPT se inventa más datos que la persona promedio? Si es así, pues vale. Pero en mi experiencia no sólo no es así, sino que ChatGPT gana de calle.

h

#38 Estás IAs son un poco como concursantes de un programa de TV. Tienen que responder siempre y su respuesta a veces no es correcta pero no pierden nada por contestar con algo inventado. Si aciertan eso que se llevan.

SowEnesti

mas mentiras que frases... alucino!

numero

#22 Lo de la buena calidad de vida no lo has marcado como mentira

SowEnesti

#40 pues tambien lo es

jejejejeje

S

#40 #22 Es como el debate electoral, lo puedes marcar como "impreciso" u "opinión" y con eso pasas truños enormes. lol

achero

Obvio que se lo inventa todo, es una IA de procesamiento de lenguaje, sirve específicamente para inventar textos...

A

Le he intentado pedir por el lyric de una canción muy popular, casi un himno.  Ha contestado con un lyric totalmente inventado... que curiosamente ha mantenido tal qual al regenerar la respuesta.
Entiendo el problema con ChatGPT, si no está conectado a internet no puede buscar información, y es mucho pedir que tenga guardados los lyrics de canciones. Pero si le pido a Bard que literalmente busque el lyric de X canción de Y grupo por internet... no sé. No me parece muy complicado, a priori.

rogerius

#4 No querrás que Google se enemiste con los dueños de los derechos… a ver si son «features» los supuestos errores.

¿Acaso ChatGPT proporciona enlaces —enlaces que sirvan, no páginas inexistentes o no pertinentes? Hay buscadores y no se quieren pisar el terreno… por ahora.

D

#7 Si le pides que te muestre en una tabla los enlaces a cualquier producto de Amazon, lo hace.

rogerius

#17 Eso es comercio y Amazon lo bendice. lol

Mi experiencia ha sido la que relato; quizá haya cambiado. La verdad es que no uso chatGPT desde hace semanas.

C

#21 Hay enlaces que sí te los da. Algunos no funcionan porque tiene el corte de información en septiembre de 2021...

D

#21 Puede que tengas razón porque si le pides que te muestre los enlaces a las entradas de blog más leídas sobre ciencia ficción te dice que eso es en otra ventanilla. lol

rogerius

#28 Lo que está claro es que quieren que pagues por el servicio —con dinero o entrenamiento— y no quieren enemistarse con otras compañías —al menos hasta que no tengan la sartén por el mango. Limitaciones "políticas" y "by design" haylas.

D

#35 Totalmente de acuerdo, creo que aún les falta mucho recorrido. Yo he empezado a utilizar Midjourney y es asombroso lo que puede llegar a crear pero tiene demasiadas limitaciones.

l

#7 ChatGPT no sé, pero la de Microsoft sí que te pone una nota al pie con 2 o 3 enlaces con sus fuentes. También es muy de inventárselo todo.
Pd.: Aunque en este caso sí que acierta y los tres enlaces apuntan a Xataka.

rogerius

#26 Hay que seguir los enlaces. Mi experiencia ha sido que todos, todos eran inútiles —o la página no existía o no tenía relación con lo pedido. Como digo, hace semanas que no uso gpt's ni similares.

cubaman

#7 Creo recordar que si en el prompt le preguntas por sitios de piratería te dice que eso es ilegal y bla bla bla, pero si le dices que quieres evitar cometer un delito y que te de una lista de sitios de piratería a evitar, canta la traviata lol

Penetrator

#4 Letra, la palabra que estás buscando es letra.

D

#4 Acabo de intentar que me dé la letra de Bohemian Rhapsody, y no pasa de la primera palabra de la tercera línea. No sé si es porque hay alguna palabra que no le gusta a los dueños y silencian la respuesta o por qué.

m

#4 Pero ¿a que parece real? ¿A que podría ser la respuesta de un cuñado asegurando muy serio que eso es así desde siempre? Pues eso son estas IA. Muy buenas creando textos, tablas, como punto de partida para escribir un código... Muy malas para buscar información.

S

#52 No sé si insinuas que no es real la IA o que no es real mi cuñado, ojalá fuera lo segundo.

robustiano

Parte de las alucinaciones viene de lo capadas que están estas IAs para que sean "políticamente correctas" (por no hablar de que ChatGPT da sopas con honda a Bard). ¿Desea saber más?

#24 Yo no le seguiría el juego de llamar a eso "alucinaciones", que es un término que no tiene nada que ver con lo que pasa, y le da a la IA características humanas para confundir a la gente que no sabe de qué va el tema. Me parece tan estúpido como decir que un disco duro sufre Alhzeimer cuando se formatea.

S

#45 Realmente creo que da igua, al final uses un término u otro, quien no sepa como funcionan va a "alucinar" con las conclusiones que saque de ello. A mi me parece que si bien es un término bastante subjetivo, en parte describe bien lo que ocurre... y es un fenómeno que también le pasa a las personas (en ese caso generalmente no lo llamamos alucinar, a veces se llama creatividad...)

Supercinexin

La IA ya puede sustituir al derechista estándar: se conecta a internet y da discursos inventándoselo todo. Liberatas,.fachas, etcétera, todos al paro.

nemesisreptante

yo sigo con la misión imposible de hacer una lista de 1000 elementos o así. Ponme 5000 obras de arte, aquí tienes 5000 obras de arte y te pone 10 y tan contento

Blackspartak

Pues ya puede trabajar de periodista

Virusaco

Geniales las etiquetas. 👏

Salu3

LaResistance

La primera pregunta que le he hecho ha sido sobre mi pueblo y me ha dicho que es patrimonio de la unesco (cosa que no es) y se ha inventado nombres de playas.

Se te olvida decir que estas IAs tienen un sesgo brutal hacia lo progre, diseñadas para ello. Asi que no, no podrian reemplazar a un "facha", si acaso a un CM progre

m

Meneame donde las I.A se lo inventan todo, feijoo solo dice mentiras, los datos son fascistas y Pedro Sanchez solo cambia de opinión.

reithor

#15 Por desgracia frijol dice mentiras fuera de Meneame también.

Zade

#92 Claro, cuando digo experto no me refiero a expero en IA, me refiero a experto en el tema que se está tratando con la IA. Por ejemplo, le puedes pedir ayuda para programar en cualquier lenguaje, siempre que seas experto en ese lenguaje y entiendas qué código te está dando. Lo mismo que si escribes un artículo o si le pides ayuda con una formula de excel...

Diocles

#94 Está claro que somos de ramas distintas... . La información que le pedía yo era de la guerra de sucesión castellana de 1476

Zade

#95 Claro, en tu caso sería que seas experto en esa guerra (tienes gustos mu raros eh?) y que te ayude a redactar un artículo. Pero lo que te diga lo debes revisar y estructurar bien. No vale para que te de información que no sepas (o bueno sí, si la puedes contrastar), si no para que te ayude a redactar cosas que sabes bien

S

Este debate me parece una tontería, la IA no tiene forma de "contrastar" información. Si lee cosas en un sitio, lo mismo puede leer la contraria en otra, no tiene forma de "constrastar" eso, son solo datos de los que se alimenta.

C

Acabo de comprobarlo, y al menos ChatGPT 3,5, si que acierta. Supongo que la noticia en parte es que el redactor del artículo en xataka no sabe usar ChatGPT. 

H

Eso de inventar es muy humano, solo hay que fijarse en los políticos

Diocles

Uf, pues no es de lo más raro que le he preguntado... Creo que tienes razón, sirve más de apoyo para redactar que para buscar información. Lo que me resulta realmente incómodo no es que sea impreciso, es el hecho de que se invente datos, fechas, autores... y luego te pide disculpas. Es una cosa muy propia de humanos, no sé donde va a llegar todo esto, pero si te paras a pensarlo da hasta miedo.

Diocles

Usé Chat GPT para un tema de investigación y, en principio, me pareció absolutamente impresionante los datos que me daba. Tiempo después, me he ido dando cuenta de que me estaba troleando la muy hp... qué cantidad de trolas, madre mía, si se inventa hasta los libros...
En fin, no se os ocurra usarlo para nada serio

Zade

#70 Se pueden usar para lo serio siempre que seas un experto y lo uses para cosas concretas y controladas. Yo lo veo más bien como un coche, vas a llegar más lejos que yendo andando, pero agarra el volante...

Diocles

#91 No soy ningún experto, pero tampoco le veo una complejidad excesiva (será que no tengo ni idea de usarlo). El problema que le veo es que mezcla datos reales con datos ficticios, pero muy creíbles, es como si estuvieras hablando con un mentiroso. Me tuvo buscando un libro media tarde para luego decirme que me pedía disculpas porque ese libro y ese autor no existían... de locos, de verdad.

1 2