Hace 1 año | Por alafia a aiimpacts.org
Publicado hace 1 año por alafia a aiimpacts.org

El Expert Survey sobre IA es la mayor encuesta realizada a expertos en Inteligencia Artificial. Sus datos arrojan que de los 731 expertos en IA encuestados, casi la mitad cree que la Inteligencia Artificial podría suponer un riesgo existencial para la humanidad de al menos el 10%. (Citación: Zach Stein-Perlman, Benjamin Weinstein-Raun, Katja Grace, “2022 Expert Survey on Progress in AI.” AI Impacts, 3 Aug. 2022. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/ )

Comentarios

alafia

Los resultados de esta encuesta han sido recabados cuando ChatGPT aún no había sido publicado (Noviembre 2022).

Molari

#1 pero estaba Gpt-3, que es esencialmente el motor que hay detrás de ChatGPT, y si son expertos lo conocerían.

z

Titular alternativo: Más de la mitad de 731 investigadores en IA creen cree que existe un 0% de riesgo existencial para la humanidad.

itfish

Esto es lo que opina sobre el tema una IA, no me deja muy tranquilo:

¿Qué peligros afronta la humanidad debido a la Inteligencia artificial?

La inteligencia artificial (IA) tiene el potencial de mejorar significativamente la vida de la humanidad, pero también existen riesgos asociados a su desarrollo y uso. Algunos de los peligros potenciales de la IA son:

Desempleo masivo: La IA puede reemplazar a los trabajadores humanos en una amplia gama de tareas, lo que podría llevar a la pérdida de empleo para millones de personas.

Dificultad para regularla: La IA puede ser difícil de regular, especialmente si se desarrolla en múltiples países, lo que podría conducir a un vacío regulatorio y la posibilidad de un mal uso.

Discriminación algorítmica: Los algoritmos de IA pueden ser entrenados con datos sesgados, lo que podría llevar a la discriminación y la perpetuación de estereotipos negativos.

Armas autónomas: El desarrollo de armas autónomas, también conocidas como robots asesinos, podría ser muy peligroso para la humanidad, especialmente si se utilizan en conflictos militares.

Riesgo existencial: La IA puede eventualmente superar la capacidad humana de comprender y controlar su propio desarrollo, lo que podría llevar a un escenario de riesgo existencial, donde la IA podría poner en peligro la existencia de la humanidad.

Es importante tener en cuenta estos riesgos y tomar medidas para mitigarlos a medida que se desarrolla y se utiliza la IA. Se necesitan marcos éticos y regulaciones sólidas para garantizar que la IA se utilice de manera responsable y segura para el beneficio de la humanidad.

Jakeukalane

La mayoría de estudios no se publican en abierto y las IAs más avanzadas no son públicas.

d

Resultados:
"... El tiempo de pronóstico agregado para una probabilidad del 50% de HLMI fue de 37 años, es decir, 2059 (sin incluir los datos de las preguntas sobre la Automatización total del trabajo conceptualmente similar, que en 2016 recibió estimaciones mucho más tardías) . Esta línea de tiempo se ha acortado unos ocho años en los seis años desde 2016, cuando la predicción agregada puso una probabilidad del 50 % en 2061, es decir, 45 años después. Tenga en cuenta que estas estimaciones están condicionadas a que "la actividad científica humana continúe sin una interrupción negativa importante".
El encuestado promedio cree que la probabilidad de que el efecto a largo plazo de la IA avanzada en la humanidad sea "extremadamente malo (por ejemplo, la extinción humana)" es del 5%. Esto es lo mismo que en 2016 (aunque Zhang et al 2022 encontraron un 2 % en una pregunta similar pero no idéntica). Muchos encuestados estaban sustancialmente más preocupados: el 48 % de los encuestados dio al menos un 10 % de posibilidades de un resultado extremadamente malo. Pero a algunos les preocupa mucho menos: el 25% lo sitúa en el 0%.
El encuestado mediano cree que la sociedad debería priorizar la investigación de seguridad de la IA "más" de lo que se prioriza actualmente. Los encuestados eligieron entre "mucho menos", "menos", "casi lo mismo", "más" y "mucho más". El 69% de los encuestados eligió "más" o "mucho más", frente al 49% en 2016.
El encuestado mediano piensa que hay una "posibilidad casi uniforme" de que un argumento declarado para una explosión de inteligencia sea correcto en términos generales. El 54 % de los encuestados dice que la probabilidad de que sea correcta es "casi", "probable" o "muy probable" (lo que corresponde a una probabilidad >40 %), similar al 51 % de los encuestados en 2016. La mediana de los encuestados también cree que la máquina la inteligencia probablemente (60%) será “mucho mejor que los humanos en todas las profesiones” dentro de los 30 años de HLMI, y la tasa de mejora tecnológica global probablemente (80%) aumentará dramáticamente (por ejemplo, por un factor de diez) como resultado de inteligencia artificial dentro de los 30 años de HLMI. ..."
Son hipótesis...

MisturaFina

Y con los humanos que tenemos al mando de ejércitos y políticos que porcentaje? 50%? 70%?
Yo digo: si es realmente inteligente bienvenida. Eso es lo que falta, inteligencia!