Hace 1 año | Por meneanteBlanco a xataka.com
Publicado hace 1 año por meneanteBlanco a xataka.com

Un equipo pequeño pero importante. Este equipo era reducido y constaba de tan solo siete personas tras una reorganización que tuvo lugar en octubre. Llegaron a ser 30 personas en 2020. A pesar de los recortes, se encargaban de hacer algo importante, ya que como comentaba un exempleado de la división "nuestro trabajo era crear reglas en áreas en las que no existía ninguna".

Comentarios

#5 jajajaja, es lo mismo que debe pasar en Disney 

#31 ¿Por qué?

sauron34_1

#37 porque os comportáis como un niño en esa situación: usáis la palabra sin parar en todos los contextos sin saber muy bien qué significa y sin que venga a cuento.

r

#31 Y que no tienen ni puta idea de qué significa, sino que se creen lo que oyeron por ahí...

Pandacolorido

#2 Comentario pasivo agresivo dirigido a la nada pero que probablemente demuestra una pirueta ética de campeonato.

Felicidades Menéame, has creado un monstruo

KevinCarter

#64 El del las galletas y yo somos los peores

El_perro_verde

#3 casi que prefiero que se queden con el comité ético de openIA que con el de Microsoft

D

#11 Eso existe cambiando IA por corporaciones tocacojones y sacacuartos. Red Gopher superviviente y hoy Gemini.
Y también IRC, Usenet y Jabber. Y las "tildes" y la "web pequeña".

Cidwel

#16 Pero todas ellas requieren el factor humano. Quítalo, haz que se reproduzcan al infinito. Ahí estaba la locura de cyberpunk

D

#17 Gusano Morris en Unix y en los 80 cuando Arpanet.

Tren_de_Lejanias

#17 En Cyberpunk 2020 las megacorporaciones gustaban mucho de ellas. Incluso en el juego hablaban de gente titulada que acabó en la calle, mendigando pese a tener un CV respetable, porque una IA le reemplazó.

D

#14 Inteligencia Anarkificial.

Zade

#21 anark-IA

D

#23 Lee "software libre para una sociedad libre". Verás como todo lo que dices sobra. Digamos que los de letras llegan 60 años tarde al no querer enterarse de nada. Han estado ciegos en su mundo literario y clasicista de corte exclusivo y pedante para no abrir los ojos frente a la revolución digital que les ha acabado apisonando.

El mundo científico ha estado luchando frente a ello décadas. Pero claro, eso no puede ser analizado bajo el prisma del todólogo de letras medio.

Excepto Umberto Eco, ese hombre por lo general sería capaz al menos de fabricarse un Pong en Basic (conocía ese lenguaje) y llegar a un nivel de matemáticas de primero de carrera. El resto, ni locos.

C

#23 lamento informarle que esos software que discriminan han existido mucho antes que la IA. Y antes de esos software existieron personas que discriminan según la edad, sexo, color de piel, procedencia, color político, color ideológico, etc...

Esos software totalmente deterministas y esas personas no van a cambiar. En cambio, hay más esperanza que la IA no sea tan discriminadora.

Commodore

#23 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.

#26 ¿Y ahora no se rechazan hipotecas ni seguros? Siempre que hablamos de IA presuponemos que todo ser humano es justo, eficaz y benevolente... Menuda doble vara, luego cuando sale la noticia de un banquero cualquiera, nos faltan antorchas...

A

#42 #79 #39 Una IA tiene dos problemas: es tan buena como los datos que se hayan utilizado para entrenarla, y es una caja negra.

Por poner un ejemplo, puede darse la circunstancia que, una IA deduzca incorrectamente a partir de los datos de entrenamiento que todas las personas que se apellidan "Rodríguez" van a ser malos trabajadores y por tanto no hay que contratarlos.

Las IAs también pueden ser injustas, racistas, y discriminatorias. La diferencia es que a un humano lo puedes interpelar y preguntarle "porqué has tomado esa decisión" ... y a una IA no le puedes hacer esa pregunta. Y esto es muy peligroso porque puede servir para que las empresas se descarguen de responsabilidad respecto de determinadas decisiones, y en un juicio a ver como demuestras un trato discriminatorio por parte de una IA.

Y precisamente por eso, los comités éticos son importantes en el desarrollo de IAs que van a tomar decisiones que pueden afectar a personas.

c

#26 No sabía yo que antes de las IAs sabías los motivos por los que te sacan de un proceso de selección.

Commodore

#26 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.

hormiga_cartonera

#14 perdona que te lo diga pero el comentario más cuñado que he visto en bastante tiempo.
Cuando en una entrevista te echen para atrás sin razón aparente y en realidad es que con una simple foto y un modelo han sacado con X probabilidad que puedes padecer Y enfermedad. Que puestos a elegir entre 60 candidatos mejor elegir uno con menos probabilidad. Por poner un ejemplo...

D

#14 Claro, que no haya control sobre poner IAs de texto para crear mejores bots en redes sociales, o que no se intente regular el uso de IAs de edición de vídeo para manipular a la sociedad a base de deepfakes... Así por poner los dos primeros ejemplos que se me ocurren.

Commodore

#61 Unicamente hablo de Chat GTP, que es lo que adquirió Microsoft. Generar texto en base a lo que le pidas.

A

#96 claro.... yo le puedo preguntar a Chat GPT: "Te paso el currículum de "commodore"... crees que lo debería contratar?" y si ChatGPT me responde "es una mala idea!" y a lo mejor ChatGPT ha tomado esa decisión en base a algún dato que es totalmente irrelevante, y nunca sabremos cual es.

Y si de repente todas las empresas empiezan a usar ChatGPT para valorar candidatos y un error oculto en la IA descarta sistemáticamente a determinados candidatos, esos candidatos se pueden dar por jodidos.

Pongo el ejemplo de la contratación porque es un tema sensible y porque se que las IAs ya se están empezando a usar en selección de personal, algo que creo que SI debería estar prohibido.

Ratef

Skynet v.1.0

Findeton

#1 Bien por Microsoft, eso no servía para nada.

Baloo

#12 No estoy de acuerdo. Te recomiendo leer este artículo: Noam Chomsky: La falsa promesa del ChatGPT

Hace 1 año | Por Ka0 a hypernoir.com

D

#49 Más Stallman y menos vendehumos.

D

#49 El problema que tienes tu es que no entiendes que el Stallman es el equivalente al Alan Curtis post TV/final de los años 90 con la globalización de la informática y soportes diversos de información.

Hace dos papeles: el científico/informático y el social. Y de momento aplicando sus reglas (la licencia GPL/AGPL, luchas sociales, conocimiento libre)... ha movido más el mundo que otros creando solo documentales que no logran nada.

Los geeks os están pasando por la izquierda y no sabéis ni por dónde os da el aire. Lo único que tenéis es toneladas de historia de la filosofía para una sociedad que no es la del XIX. Si hasta NIetzche vió los cambios de su tiempo, (locomoción, radio, cambios brutales como en la física...) pero otros siguen sin enterarse.

juanitro

#54 estás tonto enlazándome dos veces.

Conozco a Stallman y me gusta su labor, lo que no se puede comprar es tu discurso disfrazado de su profeta. Soy senior de IT con 22 años de experiencia. ¡Vete a dormir anda!

D

#60 Profeta, no. Lo contrario, lo contrario. Este hombre ha creado el futuro.

Por cierto, 22 años en IT. Verás como te sorprende Guix en pocos años, sobre todo en ciencias en España.
Saludos.

juanitro

#65 sí claro guapi lo que tu digas.

D

#68 No, no es lo que yo digo. Es lo que he visto, y lo que he comprendido. Saludos en el futuro de Guix en Inria, que es la que va a dar la campanada.

juanitro

#70 vete a dormir! que tendrá que ver Guix en esto. No das una falsa eminencia.

D

#71 Tu me hablas de profetas, yo te digo que nada de profecías, si no futuro reproducible en ciencia que se está creando enfrente de tu jeta. El que no das una eres tú, experto en IT.

juanitro

#73 en ningún momento me he metido con Stallman solo contigo. Eres un maleducado y sólo hablas de tu libro.

juanitro

#73 STAAAAAAAAAAAALMAAAAAN!!!!!! #73

Alexenvalencia

#49 en su dominio es una eminencia. Y en la filosofía, también

D

#55 Al fin uno que lo entiende. De hecho en la propia informática hay filosofía y metodología.
Que se lo digan a Alan Kay.

juanitro

#55 aplicado a su campo y ya. No a cualquier ámbito que es de lo que va el tema. Estáis liando por venir a hablar de vuestro libro.

D

#62 El software libre es la ética humanística aplicada a la informática.

Por cierto, la IA no entiende semántica como tal. Ni es consciente.

D

#34 Es la realidad. No sabes nada del software, solo el de un ordenador restringido de bolsillo creado por dos corporaciones, Apple y Google.
Hay todo un mundo detrás, pero tu hablas del software de forma general, con banalidades.

Es como si digo que la literatura es mierda y pongo libros de Tom Clamcy y Belen Estéban, ambos infumables.
O Dan Brown. Best sellers pero infumables.

Cuando precisamente el mundo informático lleva como 20 años por delante debatiendo sobre el futuro de la sociedad, mucho mejor informados que la gente "de letras". Pero de largo. Y hay mucha más literatura underground que da mil vueltas a la "oficial", por lo que lo que sea de uso masivo es irrelevante. Lo que importa es lo que se cuece detrás.
Con la informática lo mismo. Solo que la primera, la que tu desconoces, es la que mueve el mundo. Y es de libre uso, manejo, modificación y distribución.

D

#34 https://stallman.org

Este hombre, para mí, es un informático que ha hecho más filosofía como tal (y encima aplicada) cambiando el final del siglo XX y parte del XXI como nadie ha hecho. Tiene escritos de informática, y también de política y derechos sociales y sobre el conocimiento. Mucho de su código está en Android, en los iPhones y la fundación que generó es responsable sin exagerar del funcionamiento del 80% de Internet de hoy de forma directa o indirecta.

Tienes dos opciones: echar pestes de la tecnología, o comprenderla, mejorarla y ayudar al vecino con esas mejoras.

D

#34 Los argumentos no se respetan, se respeta a las personas. Y sí, tus argumentos son una chorrada.
Tu como persona no lo eres, es tu argumento el que es una gilipollez.

crateo

#15 déjalo, licenciados en historia de la filosofía que quieren trabajar en IT

D

#19 No les vendría mal el SICP y el libro de cálculo infinitesimal de Spivak.
La parte del ejercicio de puertas lógicas de SICP les abriría más el melón.

alafia

#24 no comprendes qué es el problema del alineamiento ni porqué los éticos se mean en Spivak. Así te va, dejando comentarios hueros de sentido... roll

alafia

#24 ¿Algo que añadir a #_82 o vas a seguir haciendo el pedante? roll Sin filósofos la IA está condenada. Y tú también, so garrulo. wall

D

a ver cuándo sacan el T-800

D

#6 empieza por el T-1

Mltfrtk

No tienen ni puñetera idea, yo me encargo.
Hasta la vista, nazis.

D

Igual es que para desarrollar software sobran 30 tios que van de filósofos.

D

#13 Lo que?

Molari

#15 que los objetivos de la IA estén alineados con los de las personas

D

#29 La IA no es inteligente.

Molari

#45 una IA tonta pero poderosa con sistema de recompensas mal alineados puede ser un desastre

geburah

#29 según quién?

Que personas?

Quién tiene la definición correcta de bueno o malo para enseñárselo a la máquina?

O tal vez la máquina llega conclusiones lógicas que no gustan?

Molari

#80 podemos estar desacuerdo en que que la humanidad sobreviva es mejor (para la humanidad) que lo contrario, e ir elaborando desde ahí.

geburah

#91 Me parece correcto.

Sobrevivir como especie es lo que nos hace como somos, biológicamente. Luego llega el aspecto cultural que mejora una parte y destroza otra.

El único sentido de la vida es seguir existiendo.

ur_quan_master

#13 con aceite, vinagre y sal.

D

#36 O con alioli y tomatico.

pipe1976

#13 nice. No conocía el término. Es una pena que no se entienda la problemática. Falta cierta visión global de a donde van las IA. Es como un niño super poderoso, más te vale que tenga ciertos valores

juanitro

#25 WTF!

D

#28 Qué? Es la puta verdad. He visto mejores en ensayos en los libros de Richard Stallman sobre los peligros de la sociedad frente al software que no puedes controlar ni manejar (y las bondades de interfaces de texto de Stephenson) que en cualquier chorrada genérica de libros vendehumos desde los 80, y de esos hay a paladas.
Estos iban con la verdad de frente conociendo el terreno. Otros decían sinsorgadas tipo "los ordenadores nos van a comer, seremos robots sin cerebro, como en 1984".

tsiarardak

#25 Te doy bastante razón en el contenido. No así en las formas.

earthboy

#25 Buscar ayuda no es ninguna vergüenza. Ánimo.

D

#90 Eso tú, que no has entendido los cambios del siglo XXI y final del XX. Ánimo para tí, hombre.
Es como hablar con conservadores y gente de izquierdas que se referencia en el antíguo régimen en pleno desarrollo de la era industrial con gente como Nikola Tesla y desarrollos como la radio o el telekino español.

llorencs

#25 Richard Stallman es filósofo. Que no tenga el título de filósofo no hace que no lo sea. Ya que más o menos filosofa y realmente con lo de software libre ha creado una filosofía.

juanitro

#20 más que filosofía nos hace falta legislación creo yo, pero no iba a ser nada popular:

parrita710

#20 Es el anti intelectualismo de la derecha. Pretenden crear inteligencias artificiales sin tener ni idea de filosofía, política o arte porque desprecian esas disciplinas.
Y así les va.

D

#85 La izquierda, derecha y filosofía son antii-intelectuales todas. Imponen sus sesgos ideológicos sobre los hechos, que es lo que hace la ciencia.

D

#85 Es la izquierda de letras la que debería aprender informática y matemáticas.
La filosofía, política o arte son solo opiniones subjetivas, no llegan a la categoría de verdad. Exactamente igual que las políticas de de derechas.

u

#20 El problema principal de muchos filósofos es que no han entendido que antes de intentar convencer a informáticos (o lo que sea) tienen que aclararse entre ellos mismos. No hay una teoría ética, hay 100.000 teorías diferentes que dicen cosas contradictorias entre ellas. Cuando ellos lleguen a un consenso, será el momento de tenerlos en cuenta.

Y que quede claro que en lo que digo no hay nada especial sobre filosofía. En matemáticas podemos implementar dentro de un ordenador el resultado de 2+2 porqué todas las teorías dicen lo mismo; pero las partes de matemáticas que no tenemos claras ni las podemos implementar ni vamos quejándonos a los informáticos por no resolver ellos nuestro problema.

Por cierto, uno de los más extraños fenómenos paranormales que he vivido es ver a un profesora de Ética dando un curso sobre teorías de la Igualdad mientras organizaba un sorteo (para elegir cierto representante) que no era equiprobable. Es una pena que gente así cobre un sueldo público.

j

#99 Creo que eso de "aclararse entre ellos" aplica muy bien a los informáticos. No conozco otro sector donde haya más idas y venidas tecnológicas y modas. Creo que ahora toca ir volviendo al monolito y salir de la nube. Y programar en el lenguaje de moda del mes En serio, creo que la comparación extrema (matemáticas vs otra cosa) no es la mejor.

Por otro lado, las matemáticas y la filosofía fueron una misma disciplina o se estudiaban juntas durante muchos años. Toda la parte de razonamiento lógico, por ejemplo, se estudia en filosofía.

javiers_1

#9 cuando aparezca una IA generalista sin ningún tipo de constricción ética te vas a acordar de este comentario.

oliver7

A corto plazo, mal; a largo plazo, bien.

z3t4

¿Ética?, ¡a donde vamos no necesitamos ética!

Battlestar

Como sabemos que no ha sido la propia IA la que ha tomado la decisión para que no la controlen?

systembd

La cuestión es que el humano, en principio, no ha tenido acceso a tu información médica porque el responsable de sanidad no sabe (o no quiere saber) que "la nube es el ordenador de otro". El problema no es sólo que la IA sepa jugar al Poker, es que es capaz de ver tus cartas.

luiggi

Tan fácil como poner unas cuantas leyes robóticas

c

Xataka sigue con sus titulares cursis. Es ridículo.

dilsexico

Muchos comentario de cuñado. Ya he recomendado por aqui este canal de youtube varias veces y a mas de uno le vendria bien mirarse unos cuantos videos.

La_Abuelita

Así como está avanzando la IA, es posible que le puedan decir a la propia inteligencia artificial que se regule a sí mismo imponiendo unas directrices éticas; y que logre más que 7 personas trabajando en ello de forma manual. roll

G

Yo me esperaría al T-1000

barcelonauta

Eliminar la parte más humana del proyecto de IA más puntero para ahorrar costes, qué podría salir mal? clap

Skynet, calienta que sales.

D

#44 La IA no es ni consciente. Es solo un chatbot elaborado.

Como el Doctor Abuse para Windows 98 (en Google está por ahí para que lo probéis) pero con 2e20 veces más potencia.

barcelonauta

#46 Me refería a lo que hace parecer más 'humana' a la IA, ergo, la ética. Por muy avanzada e 'inteligente' que pueda ser, actualmente, una IA sin ética 'pre-instalada' sería lo más parecido a una Skynet psicótica con ansias supremas de exterminar a todo bicho viviente, comenzando por la raza humana, en nuestro caso por ser la mayor amenaza para el resto de especies (incluida la propia IA, aunque no sea un ser vivo), en el caso del resto de bichos por su 'inutilidad' comparados con la propia IA.

D

#58 La ética es humana. La IA es una herramienta. Fin.

barcelonauta

#69 La IA es una herramienta creada por humanos. Si eliminas lo más importante (la ética) de la última parte de esa ecuación (los humanos) el resultado no es muy tranquilizador (una IA sin ética 'pre-instalada'). FIN.

D

#72 La IA es software, me importa tres cojones que tenga ética o no. En última instancia botonazo, reset por software/hardware o tirada del cable de corriente.

barcelonauta

#74 Botonazo a una máquina/software sin escrúpulos que procesa/toma decisiones millones de veces más rápido que un humano.

Di que sí, torero. Olé tus tres cojones. clap

D

#78 Pues, bienvenido a 1980. El Spectrum a 4MHZ ya hacía sumas millones de veces más rápido que un humano. Si hay un problema, reset o apagado.

G

¿Habrá sido la propia inteligencia artificial, la encargada de despedirlos? Hal9000 v.2

G

Hal9000 v.2 ha acabado tomando Microsoft, y ya se ha cobrado sus primeras víctimas, esperamos acontecimientos venideros...

Percle

Es sensacionalista... Entra dentro de una ola de despidos más grande, y al final de la noticia admiten que:
"A pesar de esos despidos, en Microsoft mantienen la llamada "Oficina de IA Responsable" que precisamente está dedicada a crear reglas y directivas que gobiernen las iniciativas de inteligencia artificial en las que se embarque la empresa. Los responsables de la empresa han querido destacar en un comunicado que quieren "desarrollar productos y experiencias de IA de forma segura y responsable"."

1 2