s

#42 De lo que habla el artículo es que ya no se debería de aprender a programar, no de si tiene que existir o no la figura del programador.

rojo_separatista

#44, entonces fallo mío. Estoy de acuerdo que aprender a programar es muy útil a la hora de aprender a organizar tus pensamientos, sin embargo creo que la forma en que se ejerce la profesión de programador va a cambiar radicalmente y probablemente no se necesiten tantos.

s

#23 No es que me pique, pero lo veo como una evolución. La IA no es tan buena como la pintan, simplemente es mejor que la media. El problema es tener un nivel por debajo de este nuevo estándar. Pero es como todo: en motos, cuando llegó Márquez, el que no apartaba la rodilla al tumbarse para acercar el codo al suelo quedó obsoleto.

Esto debería servir para que se eleve el nivel medio de los programadores (igual que el de cualquier otro trabajo susceptible de ser reemplazado por la IA). El que no se ponga las pilas, quedará obsoleto.

Javi_Pina

#25 Es la evolución amigo, o te adaptas o te pasa por encima. Totalmente de acuerdo.

rojo_separatista

#28, #25, yo opino que no hay adaptación a largo plazo es imposible. En 2 décadas ningún trabajo que hagamos frente a un ordenador lo haremos mejor que una IA. Puedo equivocarme, pero dada la tendencia me temo que no será así.

s

#8 Yo tengo bastantes dudas con eso. Para eso que les enseñen cosas como CUDA y ensamblador, así los códigos serán lo más rápidas posible. Al final, lo que aprende a hacer es copiar lo que otros han hecho, y mezclarlo (como bien dice #13, igual el 90% ya se dedican a eso). Yo creo que pasará como con cualquier otro campo: el que no es muy bueno en su campo no tendrá trabajo, el resto seguirán con sitio en el mercado laboral.

rojo_separatista

#22, apuesto a que serías incapaz de poner un ejemplo concreto de un problema de programación que los humanos puedan resolver facilmente y las IAs de dentro de 10 años, no.

s

#13 Buen apunte, igual sólo se necesitan unos pocos para ir en otra dirección. Esto también me lleva a otra cuestión, ¿empezaremos a vivir otra vez la era de no compartir tu trabajo para que una IA no sea capaz de replicarlo?

s

#7 hay de todo ya. Pero no deja de ser un loro...va a hacer estructuras que ya están hechas, al menos con la concepción actual de la ia. Yo sigo viendo que este tipo de IA puede suponer un freno para el pensamiento disruptivo.

tdgwho

#10 y el 90% de cualquier trabajo no se basa en ser un loro?

Un economista aplica unas funciones, solo cambian los datos.

Un mecánico solo saca y pone piezas, y para eso necesita la llave del 6.

Un programador repite algoritmos que ya ha visto, los videojuegos usan motores gráficos ya escritos.

Nosotros somos loros, y gpt 5 probablemente sea ya una IA fuerte.

s

#13 Buen apunte, igual sólo se necesitan unos pocos para ir en otra dirección. Esto también me lleva a otra cuestión, ¿empezaremos a vivir otra vez la era de no compartir tu trabajo para que una IA no sea capaz de replicarlo?

s

#8 Yo tengo bastantes dudas con eso. Para eso que les enseñen cosas como CUDA y ensamblador, así los códigos serán lo más rápidas posible. Al final, lo que aprende a hacer es copiar lo que otros han hecho, y mezclarlo (como bien dice #13, igual el 90% ya se dedican a eso). Yo creo que pasará como con cualquier otro campo: el que no es muy bueno en su campo no tendrá trabajo, el resto seguirán con sitio en el mercado laboral.

rojo_separatista

#22, apuesto a que serías incapaz de poner un ejemplo concreto de un problema de programación que los humanos puedan resolver facilmente y las IAs de dentro de 10 años, no.

s

La envío porque estoy en completo desacuerdo con lo expuesto por el CEO de Nvidia. Para mí es casi equivalente a decir que ya no hace falta aprender a sumar o restar porque ya hay calculadoras que lo hacen. Con el añadido de que te tendrías que creer que todo lo que te está entregando la IA generativa es correcto, lo que es mucho decir.

A

#1 Estoy de acuerdo, aunque en el futuro las IAs sean capaces de programar, los humanos van a seguir necesitando saber programar para entender lo que han programado las IAs.

Lo expuesto por el CEO de nVidia va mas en la linea de: "dejad de programar, que ya programaremos nosotros en vuestro lugar"

makinavaja

#2 Y va a ser necesario saber programar para programar las IAs, que no dejan de ser otra pieza de software más...

k

#31 Las IA no son algo tan complicado. El código necesario "está ahí fuera". Es más importante el entrenamiento. Las IA que salen ahora, lo que tienen de novedoso es la enorme capacidad de cálculo que usan. O sea, que son muy grandes.

J

#1 Ni lo uno ni lo otro. No hara falta programar para un monton de tareas que se hacen ahora. Pero seguira necesitandose saber programar para otras.

En cualquier caso, creo de cara a lo que viene, los niños se benefician mas de aprender logica, pensamiento critico y filosofia, que aprender a programar. No es que programar no sea positivo. Es que sin aprender a pensar, todo falla.

k

#5 Es mucho más importante entender lo que se lee. Estamos en menéame constantemente criticando la "capacidad de comprensión lectrora" de los demás, y con toda la razón.

Dado como funciona la mente humana, es una habilidad que requiere de un entrenamiento.

Luego, si has sido capaz de entender algo, el saberlo programar es una habilidad menor.

tdgwho

#1 ahora tienes 20 programadores, quitas 19 y pones una IA que programa, y el que sigue en nómina, revisa.

Del mismo modo que hay que revisar el código de los 20 programadores, que seguro que no te crees lo que programan sin más.

De todos modos, yo cojo código generado por ia, si da errores, le pego el error y a día de hoy, lo corrige. Imagina dentro de 10 años, o 15.

La IA actual es generalista, no está entrenada explícitamente para programar.

s

#7 hay de todo ya. Pero no deja de ser un loro...va a hacer estructuras que ya están hechas, al menos con la concepción actual de la ia. Yo sigo viendo que este tipo de IA puede suponer un freno para el pensamiento disruptivo.

tdgwho

#10 y el 90% de cualquier trabajo no se basa en ser un loro?

Un economista aplica unas funciones, solo cambian los datos.

Un mecánico solo saca y pone piezas, y para eso necesita la llave del 6.

Un programador repite algoritmos que ya ha visto, los videojuegos usan motores gráficos ya escritos.

Nosotros somos loros, y gpt 5 probablemente sea ya una IA fuerte.

s

#13 Buen apunte, igual sólo se necesitan unos pocos para ir en otra dirección. Esto también me lleva a otra cuestión, ¿empezaremos a vivir otra vez la era de no compartir tu trabajo para que una IA no sea capaz de replicarlo?

s

#8 Yo tengo bastantes dudas con eso. Para eso que les enseñen cosas como CUDA y ensamblador, así los códigos serán lo más rápidas posible. Al final, lo que aprende a hacer es copiar lo que otros han hecho, y mezclarlo (como bien dice #13, igual el 90% ya se dedican a eso). Yo creo que pasará como con cualquier otro campo: el que no es muy bueno en su campo no tendrá trabajo, el resto seguirán con sitio en el mercado laboral.

a

#1 #7 Y lo siguiente será poner una IA que revise el trabajo de otra IA. Siempre hará falta algo de trabajo humano pero muchísimo menos que ahora.

La IA nos mandará a mucho personal altamente cualificado al paro.

tdgwho

#16 a eso me refer-IA

Antes había 50 agricultores, ahora con 1 en un tractor, llega.

Todo evoluciona

t

#16 Y a otra parte no la dejará entrar en el mercado laboral, pues la IA sustituirá a muchos juniors.

D

#1 Viene muy a cuento: "La sensación de poder" de Isaac Asimov.
https://no-es-palabreria.webnode.com.uy/l/sensacion-de-poder/

E

#1 De momento, las IAs generativas que he probado tienen dificultades enormes para generar algo de lo que no existe demasiada información en Internet. No las he usado nunca para generar código porque no soy programador, entonces desconozco si ahí van más avanzadas, pero un experimento que hice que me llamó mucho la atención fue con descripciones de series. Si le pedía que me describiese una serie famosilla lo hacía decentemente, pero si le pedía que me hablase de un manga reciente sin demasiada información on-line nunca se negaba a hacerlo o decía que no encontraba nada, pero se lo inventaba casi todo. Para alguien completamente ajeno al tema parecía que la IA sabía de todo, para el que supiese lo que estaba pidiendo estaba claro que no daba una.

No creo que alguien sin conocimientos de programación tenga capacidad para decidir si el código que acaba de generar la IA vale de algo o no, o si necesita correcciones, con lo que estaríamos hablando de profesionales completamente incapaces de tocar nada.

k

#19 Yo le he pedido a un trasto de estos que genere código de programa. Algo muy sencillito pero en un lenguaje poco usado. El resultado es que ni siquiera era capaz de acercarse a lo que le pedía. Pero ni de lejos. Ni siquiera cumplía con requisitos expresados muy claramente. Simplemente decía que ahí lo tienes, pero eso no cumplía ni de coña.

E

#38 Es que yo creo que de momento generan algo más o menos válido si tienen una base desde la que crear. Cuando les pides algo muy raro simplemente fingen que lo han hecho, lo cual no es problemático si sabes cuál debería ser el resultado esperado, pero puede ser catastrófico en el momento en que alguien sin experiencia piensa que la IA ha cumplido.

rojo_separatista

#41 para #_38, puedes describir que programa tan sencillo y en qué lenguaje? Más que nada porque me cuesta muchísimo creerte y tengo la curiosidad de probarlo.

rojo_separatista

#19, este año saldrá GPT-5 y te apuesto a que una de las mejoras más grandes que incorporará, sera el saber responder "no lo se".

E

#48 Si este año consiguen que una IA sepa responder "no lo sé" cuando no tiene información de algo estarían dando un salto cualitativo gigantesco, porque implicaría que sabe distinguir qué es real y qué no. Para mí las alucinaciones de las IA son su mayor problema actual, porque aunque se ven más en temas de los que hay poca información, si te despistas te las comes, porque a veces son invenciones sorprendentemente sutiles, como inventarse un capítulo dentro de un índice y poner el resto bien.

rojo_separatista

#52, este año no creo que lo logren para al 100% de los casos, sino estaríamos en un escenario muy cercano a la AGI, pero sí para una gran mayoría. Puedo equivocarme, pero así lo creo.

m

#1: Tanto como "no hacer falta programar" no, pero quizás sí que no todo el mundo intente aspirar a ser programador, no rallar a los niños con Scratch en tecnología, no fiarse de quienes te vendan programar como la solución a tus problemas laborales...

Javi_Pina

#1 Como os picais los programadores con estas cosas pero fuisteis los primeros en predecir el fin de los artistas cuando llegaron las IAs generativas. Mi opinión al final coincide con la tuya, no van a desaparecer ni los unos ni los otros, se dejará de hacer la tarea mas repetitiva para pasar a otro nivel.

s

#23 No es que me pique, pero lo veo como una evolución. La IA no es tan buena como la pintan, simplemente es mejor que la media. El problema es tener un nivel por debajo de este nuevo estándar. Pero es como todo: en motos, cuando llegó Márquez, el que no apartaba la rodilla al tumbarse para acercar el codo al suelo quedó obsoleto.

Esto debería servir para que se eleve el nivel medio de los programadores (igual que el de cualquier otro trabajo susceptible de ser reemplazado por la IA). El que no se ponga las pilas, quedará obsoleto.

Javi_Pina

#25 Es la evolución amigo, o te adaptas o te pasa por encima. Totalmente de acuerdo.

rojo_separatista

#28, #25, yo opino que no hay adaptación a largo plazo es imposible. En 2 décadas ningún trabajo que hagamos frente a un ordenador lo haremos mejor que una IA. Puedo equivocarme, pero dada la tendencia me temo que no será así.

k

#23 Aunque yo nunca le he predicho el final y tal a los artistas, sí que reconozco que la creatividad es un algoritmo fácilmente implementable en una maquinita.

Javi_Pina

#43 Bueno, las IAs pueden ser buenas copiando estilos, porque han visto y memorizado grandísimas cantidades de obras, pero parte de la creatividad del artista es crear un estilo nuevo (el tuyo propio) y es aquí donde veo mas flojas a las IAs.

rojo_separatista

#1, existe la profesión de sumador y restador profesional? Pregunto.

s

#42 De lo que habla el artículo es que ya no se debería de aprender a programar, no de si tiene que existir o no la figura del programador.

rojo_separatista

#44, entonces fallo mío. Estoy de acuerdo que aprender a programar es muy útil a la hora de aprender a organizar tus pensamientos, sin embargo creo que la forma en que se ejerce la profesión de programador va a cambiar radicalmente y probablemente no se necesiten tantos.

s

#14 En Coruña había una empresa que tenía fama de pagar bien y dejar trabajar, creo que se llamaba Mobgen o algo así. Sólo escuchabas buenas palabras de los empleados. La compró Accenture...si aún existe la empresa, ya no conozco a nadie que trabaje allí.

s

#57 Hay maneras y maneras de controlarlo. Lo podrían controlar juntándolos y no pasaría nada.

s

#17 Revocó las visas, separó a las familias de los inmigrantes ilegales en distintos centros de detenciones...que no haya montado una guerra (pero sí ha matado en el exterior con drones) no lo hace mejor que el resto.

selina_kyle

#47 controlar la inmigracion ilegal es fascista

pinzadelaropa

#57 EEUU es un país fundado, criado y elevado a imperio por inmigrantes ilegales

selina_kyle

#62 España llego a imperio matando y echando a moros y conquistando tierras sudeamericanas. Significa que podemos seguir haciendolo?

pinzadelaropa

#67 Estamos hablando de temas de hace 500 años o de hace 50? porque vamos, no veo comparación. Tenéis el nivel de debate de crios de 11 años.

selina_kyle

#73 ah que tu decides a partir de cuantos años empiezas a contar no? No hace falta que sigas moviendo la porteria, estas jugando tu solo

s

#57 Hay maneras y maneras de controlarlo. Lo podrían controlar juntándolos y no pasaría nada.

m

#57 "controlar la inmigracion ilegal es fascista"

No. Pero separar a niños de sus madres, que es lo que apuntaba a quien respondes, desde luego que sí.

s

#6 #22 Entonces aún tendrías un 25% de descuento. Para acabar pagando lo mismo lo que tendría que haber es una subida del 100%.

s

#31 Una cosa rara es un término mucho más difícil de modelar de lo que pueda parecer a priori. Digamos que se podría meter en el campo de detección de anomalías, que es un campo muy interesante pero muy difícil de precisar, ya que se trata de entrenamiento no supervisado. El caso que mencionas es muy complejo de evaluar, ya que el segundo médico suele tener acceso al primer diagnóstico, antes de dar su opinión. Por tanto, su análisis ya está sesgado en ese aspecto.

Estoy más a favor de mejorar modelos que hagan uso de valores clínicos para hacer predicciones, que modelos que tengan en cuenta texto, para estos casos.

l

#31 Los informes medicos carecen de muchisima informacion que podria ser util para una IA. No sabe ni datos basicos como peso o altura.
Tal vez hay que hacer un pensamiento lateral y buscar datos en otros lado, por ejemplo la relacion de personas con maquinas.
Por ejemplo con el ordenador o el coche. Pueden analizar errores de tecleo, divagaciones con el raton. A la vacas les ponen un podometro para detectar si tiene algun problema o esta en celo ( solo hay horas para aprovecharlo)
En el coche se podrian detectar brusquedades, falta de prevision, conduccion mas impetuosa, etc.

Seguro que proporporciona mas datos que lo medicos.
En centros sanitarios tal vez se podria pensar en tomar otras forms de diagnostico, como termografias.
En los tiempos de Espera se podria poner una serie de pruebas desatendidas para aprovechar ese tiempo. Tambien la forma de andar segun llegan al centro, las escaleras supone un esfuerzo mas puede que revelen mas. Si se vistes y desvisten es una tarea compleja que puede ser informativa de algun problema.
Seria peliagudo grabar al la gente asi, pero tal vez se podria guardar un esqueleto esquematico de los movimientos.

#34 Yo creo que es un interferencia grande el diagnostico anterior. Lo cientifico seria que otro medico diagnosticase a ciegas, para ver si la conclusion es parecida. Incluso medico malo pueden enmascarar su incompetencia, diciendo lo mismo el diagnostico anterior.
Y si varios medico lo hacen el siguiente pensará que no se pueden haber equivocado los medicos anteriores o alguno de ellos lo habra cuestionado/puesto en duda/comprobado.

s

#27 Otra cosa que dice es esto:

When we generated the ASD screening models, we cropped 10% of the image top and bottom before resizing because most images from participants with TD had noninformative artifacts (eg, panels for age, sex, and examination date) in 10% of the top and bottom

Una imagen anotada suele cambiar la calidad de la compresión (se suele anotar sobre una imagen codificada, no cruda (raw), y vuelta a codificar, lo que añade una capa extra de borrosidad. El hecho de que sólo se haga esto en uno de los datasets es de alerta roja. Yo no habría dado permiso para publicar esto ni de broma.

La revista es Q1 y, aunque reciente, parece de buena calidad. Pero no he visto ningún otro paper relacionado con modelos de 'machine learning', así que es posible que los revisores no fueran expertos más que en el campo médico.

s

Me ha dado por leer el paper, que usa modelos no muy actuales (una ResNetXt es del año 2016, creo). No hay nada muy especial, así que el único motivo de avance en la investigación son los datos con los que han contado para hacer el experimento. En el apéndice me he encontrado con esto:

The photography sessions for patients with ASD took place in a space dedicated to their needs, distinct from a general ophthalmology examination room. This space was designed to be warm and welcoming, thus creating a familiar environment for patients. Retinal photographs of typically developing (TD) individuals were obtained in a general ophthalmology examination room.

Esto es, las fotografías se tomaron en sitios distintos, lo que ya es muy peligroso de cara a las valoraciones. Yo he trabajado en su momento con imágenes de fondo de ojo (hace 15 años, espero que los retinógrafos hayan mejorado), y la iluminación de la imagen era muy susceptible del entorno en donde se estaba realizando.

Como dice #1, me cogería con pinzas estos resultados. Y si fuera el revisor, no habría dejado publicar este paper sin un estudio que confirmara que los dos conjuntos de imágenes no tienen diferencias estadísticas entre ellas. Puede que la red esté detectando en dónde se ha realizado la toma de la imagen, en lugar del discernir si tiene autismo o no.

s

#27 Otra cosa que dice es esto:

When we generated the ASD screening models, we cropped 10% of the image top and bottom before resizing because most images from participants with TD had noninformative artifacts (eg, panels for age, sex, and examination date) in 10% of the top and bottom

Una imagen anotada suele cambiar la calidad de la compresión (se suele anotar sobre una imagen codificada, no cruda (raw), y vuelta a codificar, lo que añade una capa extra de borrosidad. El hecho de que sólo se haga esto en uno de los datasets es de alerta roja. Yo no habría dado permiso para publicar esto ni de broma.

La revista es Q1 y, aunque reciente, parece de buena calidad. Pero no he visto ningún otro paper relacionado con modelos de 'machine learning', así que es posible que los revisores no fueran expertos más que en el campo médico.

s

#10 Llevo 20 años escuchando esa cantinela, y no se está ni cerca de eso. Ya se dijo hasta con los sistemas expertos, que se siguen usando en UCIs, pero sigue lleno de profesionales igual.

Es más, te diría que el ámbito médico es uno de los campos donde ya hay muchísimos modelos de IA funcionando, muchos de ellos anteriores al boom actual derivado de Chat-GPT. Y aún con esas, siguen siendo modelos de apoyo, nunca de desplazamiento o sustitución.

redscare

#22 Hombre, pueden mejorar muchas cosas. Imagínate que le chutas a una IA todos los informes médicos de cada paciente de un hospital. Solo con que te saque alertas cuando vea alguna cosa rara para que ese paciente tenga un segundo diagnóstico humano por otro médico distinto al primero ya evitarias un montón de problemas por negligencias o simple error humano. Ni siquiera hace habrá que la IA intente un diagnóstico completo, basta con que saque alertas cuando crea que el diagnóstico original puede no ser correcto.

s

#31 Una cosa rara es un término mucho más difícil de modelar de lo que pueda parecer a priori. Digamos que se podría meter en el campo de detección de anomalías, que es un campo muy interesante pero muy difícil de precisar, ya que se trata de entrenamiento no supervisado. El caso que mencionas es muy complejo de evaluar, ya que el segundo médico suele tener acceso al primer diagnóstico, antes de dar su opinión. Por tanto, su análisis ya está sesgado en ese aspecto.

Estoy más a favor de mejorar modelos que hagan uso de valores clínicos para hacer predicciones, que modelos que tengan en cuenta texto, para estos casos.

l

#31 Los informes medicos carecen de muchisima informacion que podria ser util para una IA. No sabe ni datos basicos como peso o altura.
Tal vez hay que hacer un pensamiento lateral y buscar datos en otros lado, por ejemplo la relacion de personas con maquinas.
Por ejemplo con el ordenador o el coche. Pueden analizar errores de tecleo, divagaciones con el raton. A la vacas les ponen un podometro para detectar si tiene algun problema o esta en celo ( solo hay horas para aprovecharlo)
En el coche se podrian detectar brusquedades, falta de prevision, conduccion mas impetuosa, etc.

Seguro que proporporciona mas datos que lo medicos.
En centros sanitarios tal vez se podria pensar en tomar otras forms de diagnostico, como termografias.
En los tiempos de Espera se podria poner una serie de pruebas desatendidas para aprovechar ese tiempo. Tambien la forma de andar segun llegan al centro, las escaleras supone un esfuerzo mas puede que revelen mas. Si se vistes y desvisten es una tarea compleja que puede ser informativa de algun problema.
Seria peliagudo grabar al la gente asi, pero tal vez se podria guardar un esqueleto esquematico de los movimientos.

#34 Yo creo que es un interferencia grande el diagnostico anterior. Lo cientifico seria que otro medico diagnosticase a ciegas, para ver si la conclusion es parecida. Incluso medico malo pueden enmascarar su incompetencia, diciendo lo mismo el diagnostico anterior.
Y si varios medico lo hacen el siguiente pensará que no se pueden haber equivocado los medicos anteriores o alguno de ellos lo habra cuestionado/puesto en duda/comprobado.

s

#5 No soy muy fan del término 'saber hablar' en este tipo de modelos, pero entiendo lo que quieres decir. Si tratas de predecir la palabra siguiente de un texto en catalán, hay altas probabilidades de que sea catalán también. Ya he 'peleado' alguna vez por aquí sobre este tipo de modelos, pero mantengo lo que decía sobre ellos: el lenguaje no es un problema tan complicado mientras tengas una red lo más grande posible. El sobre-entrenamiento no es inherentemente malo en este tipo de modelos.

Respecto a #1, totalmente de acuerdo. Que sea capaz de reproducir el comportamiento experto, como dice #7, no garantiza que la adquisición de datos no tenga un sesgo que haga fácil la clasificación para una máquina. Ojo, que el sesgo puede ser accidental e inadvertido por los investigadores, pero un 100% es muy raro de ver, sobretodo en imágenes.

s

#3 Si trabajas en la universidad te falta mencionar que, de los dos grandiosos años de financiación que te dan, tardas de 4 a 6 meses en conseguir contratar a alguien por los plazos y burocracias interminables que te exigen. Un despropósito todo.

Al-Khwarizmi

#8 Sí, no lo he dicho para que mi comentario no se convirtiera en un muro de texto y espantara a la gente... Pero esos proyectos de dos años, en la práctica, son proyectos de año y medio por el motivo que comentas, lo cual agrava todo lo que he comentado.

s

#4 #2 Si el alquiler es un negocio, entonces yo creo que debería de tratarse como tal. Si el IPC sube un 10%, como el año pasado, lo que no puede un propietario es subirlo un 10%, porque sus gastos no han subido por ese margen. Tendrá que adecuarse al incremento de costes que le produce el mantenimiento del piso. Si no, es una receta para un crecimiento desenfrenado de la inflación.

Con la misma también digo que la energía (y por ende los combustibles) han bajado mucho desde el pico de hace un tiempo...y no veo una actualización de los precios de la misma manera que lo hicieron con el alza...

H

#136 ¿Y si los intereses de la cuota de la hipoteca han subido un 100%, permitimos que ese incremento de gasto se repercuta o no?
Porque el incremento "a posteriori" del alquiler ajustado al IPC creo que no genera inflación (el no hacerlo generaría deflación)

Creo.

s

#60 Las vi en medio de la ciudad, desnutridas, comiendo plásticos. Que no las maten no implican que les den de comer, es muy deprimente.

s

#1 Estuve allí en una boda este agosto...mejor me callo lo que opino de la India. Igual el hecho de ver directamente como está funcionando el tema de castas te cambia la idea con respecto a los que van por allí a ver lo turístico.

D

#59 Yo he tenido amigos que han trabajado ahí y creo que no iría ni con el billete pagado. Creo que es de los sitios donde más desprecio hay por los seres humanos.

Incluso las vacas, que se supone que son sagradas, parecen moribundas.

y

#60 Pues de higiene ni te cuento...

l

#69 un país superpoblado... Sin recursos para temas sociales.

mudito

#60 están cerca de Shiva

s

#60 Las vi en medio de la ciudad, desnutridas, comiendo plásticos. Que no las maten no implican que les den de comer, es muy deprimente.

s

#63 Entiendo que paga 21, todo lo que debía y la multa. No te hacen rebaja por intentar defraudar.

D

#76 Salvo que el PP haga una ley literalmente para eso, cómo se llamaba aquella, ay... lo tengo en la puntica de la lengua. Bueno viva españa.

s

#9 Me parece que estás equivocando lo que dice Ng. De lo que habla el es de que las grandes compañías están haciendo lobby en USA para que se regule la IA...con una legislación que básicamente dice que el gobierno daría licencias a ciertas empresas 'confiables', y que sólo esas podrían hacer IA. Que Hinton alerte de una cosa no implica que la solución sea la que proponen estas empresas.

rojo_separatista

#15, Andrew Ng lleva los últimos meses diciendo que no hay que regular la IA ya que no entraña ningún peligro y que es lo mejor que le ha pasado a la humanidad en toda su historia. Algo que me parece muy irresponsable.

babybus

#16 Yo creo que lo irresponsable es regularla de una forma que permita solo a unos elegidos disponer de este poder. Iría tan lejos como para decir que eso amenaza la democracia misma.

rojo_separatista

#18, el mismo argumento utilizan para la libre posesión de armas, los miembros de la Asociación Nacional del Rifle. Yo siempre soy partidario de la regulación.

babybus

#30 Si, tienes razón, pero la diferencia es que tu estás a favor de que el estado tenga el monopolio de la fuerza con las armas.

En este caso, esto es mucho más complejo que las armas. Y las regulaciones básicamente son que solo ciertas empresas puedan desarrollar la IA. No el estado, ciertas empresas privadas.

rojo_separatista

#63, si la alternativa es la desregulación total, me parece un mal menor. Es como decir que si las restricciones medioambientales son tan estrictas que solo las pueden cumplir las empresas muy grandes, lo mejor sería eliminarlas.

navi2000

#16 cuidado con eso de la regulación. Yo estoy a favor de la regulación de casi todo en la vida comunitaria de las personas, pero la pregunta es siempre la misma: ¿Regular a favor de quién? Porque no hay ninguna regulación en nada que favorezca a todo el mundo. La idea romántica de que todos nos podemos beneficiar de poner límites a algo es simplemente idealismo. La regulación se hace en favor de alguien y en contra de alguien. Para mi siempre debería ser en favor de la mayoría de las personas y en contra de los pequeños núcleos de poder/capital, sin embargo, si dejas que regulen las élites, adivina a favor de quién se va a regular.

rojo_separatista

#29, creo que estamos mezclando cosas. Que ahora mismo nuestro modelo económico favorezca que unas pocas empresas estén en posición de poder, no puede ser argumento para decir que no hay que regular nada. Si no nos gusta que las empresas privadas lo controlen todo, luchemos para que aquí no sea, pero no lo usemos como excusa para desregular. No se trata de un dilema ético o moral, sino de un problema real.

Lo siento pero yo no quiero que la fórmula para diseñar la bomba atómica o una pandemia que arrase la humanidad, sea Open Source. Por mucho que esté a favor al acceso libre al conocimiento.

navi2000

#34 No es incompatible. Se puede luchar para que no existan oligopolios (vamos, yo personalmente voy más allá, yo quiero que no existan empresas privadas en general) y a la vez estar a favor de que las regulaciones se hagan teniendo en cuenta las necesidades de la mayoría. Desgraciadamente, yo veo este asunto lo veo demasiado claro: si regulamos ahora, con el actual reparto del poder, se va a regular a favor de 4 gatos y se va a dejar fuera a la mayoría. Verás como si se regula, el software libre no va a poder entrenar sus IAs, mientras que empresas como Google que ahora van llorando por las esquinas porque se han quedado atrás, podrán hacer lo que les venga en gana.

rojo_separatista

#43, pues lucha para que no haya empresas privadas, no para que no haya regulación. Esto es tan absurdo como decir que porque el monopolio de la fuerza está en manos de estados capitalistas, lo mejor es la libre posesión de armas y que si eso, ya regularemos cuando la clase obrera tome el poder.

navi2000

#46 es que a mi esto me recuerda al debate que se abrió sobre la posible reforma constituyente en España. Recuerdo perfectamente que el 15M intentó abrir ese melón cuando ya iba decreciendo en fuerza y salió un tio inteligente y formado como Monereo para decir "ei chicos, que si ahora mismo se reforma la constitución os van a cerrar más puentes todavía que con la del 78, que quienes tienen ahora mismo la capacidad de legislar no son los nuestros, son los representantes del capital". Y esto es igual. Si legislan ellos, nos van a joder todavía más.

M

#34 La noticia, en español: https://www.xataka.com/robotica-e-ia/big-tech-quieren-regular-ia-estan-mintiendo-porque-asegura-experto-andrew-ng

Por lo que yo entiendo, el cofundador de Google Brain, Andrew NG, aboga por no regular las IA, adviertiendo además que "sería muy perjudicial para la comunidad de fuente abierta". Supongo que este perjuicio estará relacionado con el objetivo de la UE en cuanto a la obligación de mantener los sistemas actualizados con la excusa de la ciberseguridad, algo que la comunidad se puso en pie de guerra porque les dejaría en una situación delicada.

Relacionada: La comunidad open source en pie de guerra con Europa: no tienen culpa de los problemas de ciberseguridad

Hace 11 meses | Por lumine a xataka.com


En primer lugar, yo creo que es conveniente que se regule la IA, pero que eso no signifique que el modelo de fuente abierta deba quedar aislado o perjudicado, cuando supuestamente se ha demostrado su transparencia y puede ser mucho más beneficioso y económico al necesitar menos recursos. De todas formas, el modelo de IA debe ser muy estudaido antes que ponerlo en práctica. Más que irresponsabilidad, lo que veo en todo esto es una escoba tan grande como el tamaño de sus negocios, y en el caso del modelo de fuente aberta (o libre, si la hay) una escoba tan grande como la ética que trataría de defender (aunque siga tratándose de IA).

Esto es un asunto muy delicado que ha explotado y, aunque en las puertas de la regulación, todavía no lo está.

neiviMuubs

#16 el problema que veo ahí es, ¿quién regula la IA, en caso de regularla? porque al final siempre son los lobos los primeros que corren a guardar el gallinero. Ahora mismo, chatgpt muchas cosas sociales e históricas te las responde con un sesgo WASP tremendo, incluyendo grandes acontecimientos históricos, y eso que ahora el tema está en su tramo inicial.

Es el problema de siempre con todo lo referido a información y teconología, habrá gente desde los gobiernos que exigirán control con la excusa de evitar el libertinaje, pero que realmente no quieren evitar el libertinaje sino tener el control con todo lo que ello conlleva.

rojo_separatista

#37, entiendo que son los estados u organizaciones gubernamentales supra-estatales los que tienen que regular esto de alguna manera.

s

#1 Originalmente estaba sin barandilla. Recuerdo haber ido de pequeño a verla, y con mi vértigo iba pegado a la pared. Cosas que se te quedan grabadas cry

A

#9 Ah, que la escalera de mis pesadillas existía, qué bien 😖

Por otro lado, una belleza arquitectónica.

s

#1 Yo no entiendo esta discusión. Persona de vacaciones comenta que hay gente en Europa que no está trabajando...lo que le incluye a él. ¿No puede ser que estén todos de vacaciones? Es muy egocéntrico el pensar que eres el único que, en el lugar que estés, no tiene que trabajar en ese momento.

De todas formas, yo le lanzaría una pulla más directa: ¿y si lo que pasa es que, pudiendo salir a hacer cosas sin tener que coger el coche para todo, provoca estos fenómenos tan extraños para un americano común, como que la gente salga a la calle y se pare a tomar algo?

d

#141 Creo que si le has dado. Por el urbanismo y la zonificación de EEUU. No es habitual ver a gente andando por la calle en ningún barrio. Como mucho en zonas del downtown si lo tienen.

Sin embargo en Europa, con la densidad y la mezcla de usos en cualquier barrio aunque no sea del centro tienes gente paseando, haciendo sus recados o jubilados tomándose algo. La gente en entornos urbanos anda o está por la calle. Y como la densidad es mucho mayor parece que hay mucha gente.