Hace 8 años | Por Boleteria a xataka.com
Publicado hace 8 años por Boleteria a xataka.com

Hay momentos y lugares impredecibles en la historia, en los que, no sabemos si porque los planetas se alinean o porque los dioses así lo ordenan, se reúne un grupo de genios para dar un giro radical a la historia de la humanidad. Y eso es lo que ocurrió en las míticas conferencias de Dartmouth.

Comentarios

p

Probablemente podamos emular un cerebro de forma tosca muchísimo antes de que podamos entender cómo funciona. Es un problema bastante intratable.

Lo que tengo claro es que los enfoques actuales basados en computación simbólica pura y dura + datos son un fracaso y un callejón sin salida.

Precisamente lo que caracteriza toda inteligencia que conocemos es que trabaja con datos inexactos, difusos, en diferentes formatos, ambiguos, etc. y somos capaces de sacarle el sentido y el contexto a todo ello. También tengo la conjetura de que cuanto más inteligente sea una entidad, más inexactitudes tendrá, ya que el mundo es precisamente así. Los programas son estúpidos porque no pueden hacer nada más que aquello para lo que han sido programados. Eso sí, lo hacen extremadamente rápido, pero es precisamente porque no piensan, son sólo mecanismos.

La gente piensa que combinando una máquina con inteligencia tendremos una especie de Dios o de Oráculo que sepa respuestas exactas a problemas que nosotros mismos no sabemos resolver. A mí eso me parece creer en los unicornios. Tal máquina estaría sujeta a las mismas limitaciones u otras similares.

Yo digo que no sabemos resolverlos porque no tienen solución sencilla ni obvia. Y una máquina inteligente tendrá limitaciones similares. Lo de que la inteligencia pueda mejorarse a sí misma hasta el infinito también me parece bastante cándido, cuando constatamos que las mentes supuestamente más inteligentes no tienen ninguna ventaja particular en la vida excepto quizá para resolver puzzles o problemas matemáticos difíciles, además de tener una tendencia a la inestabilidad (que por algo se produce).

p

#6 A esto es a lo que me refiero en #8. Los del segundo link están usando el enfoque correcto en mi opinión. Lo que hay ahora es mucho titular sensacionalista y poco más.

Διογένης

#8 enfoques actuales basados en computación simbólica pura y dura + datos???. Hace medio siglo quizas.

p

#16 Y se sigue haciendo hoy día. Camuflado de mejor o peor manera.

Lo de las redes neuronales es una vuelta de tuerca a ese mismo enfoque, en el que sustituyes los símbolos por datos genéricos en una red neuronal, tras un entrenamiento machacón. Que es básicamente aprendizaje estadístico de una única cosa. En la práctica sigues con el mismo problema de la ausencia de flexibilidad.

Que tendrá sus utilidades, no lo niego, pero no deja de ser otro enfoque puramente computacional a base de fuerza bruta, por mucho que su nombre lo disfrace de otra cosa, con la diferencia de que el esfuerzo computacional es previo y no posterior.

Estos

tienen pinta de que realmente están enfocando el problema correctamente, pasando por completo de los paradigmas basados en fuerza bruta e imitando la flexibilidad y ambigüedad propias del cerebro (vamos, copiando lo que entienden hasta el momento sobre cómo funciona).

Διογένης

#17 Yo por computacion simbolica entiendo Prolog, Lisp y los intentos iniciales de crear programas inteligentes a base de codificar una serie de leyes logicas y abstraer cualquier dato hasta el punto de que case con alguno de sus predicados. Vamos, poco que ver con las redes neuronales.

En cuanto a Jeff Hawkins y Numenta por lo que tengo entendido de aplicaciones practicas nada de nada. Por contra implementaciones basadas en redes neuronales te las encuentras en multitud de aplicaciones y en la mayoria de los casos liderando los respectivos benchmarks.

p

#20 No se trata de que tenga resultados ahora, sino de lo más acertado para construir algo parecido a inteligencia artificial, no lo que tenemos ahora.

Azucena1980

No es cuestión de debatir, sino de tiempo.

D

Espero que se peguen... o algo.

D

Como siempre el problema es definir "inteligencia". Según una respuesta u otra ya tenemos IA's desde hace años.

Pescait0

#2 según lo que he trabajado con IAs, la inteligencia es: La capacidad de entender la naturaleza de un problema (lo cual descartaría a muchos humanos lol).
Un ejemplo: El juego de las figuras de lo bebés. Tienen que encajar unas figuras geométricas en sus respectivo hueco. Al principio el niño intentará meter el cubo por el agujero del cono, pero según la inteligencia que tenga el niño, se dará cuenta que el problema base es que las figuras no coinciden.
Que yo sepa esto no se ha conseguido todavía, aunque se han conseguido muchas cosas muy interesantes que no son despreciables

Walldrop

#6 gracias por los aportes. El otro día este meneo estuvo también muy interesante, calidad: La revolución de la Inteligencia Artificial. El camino a la súper inteligencia. [ENG] (Parte 1).

Hace 9 años | Por Natsu a waitbutwhy.com
(relacionada)
La revolución de la Inteligencia Artificial. El camino a la súper inteligencia. [ENG] (Parte 1)./c2#c-2 (tiene dos partes, la primera en el meneo la segunda en este comentario)


De todos modos decir que este hombre me parece bastante bueno, sin la profundidad de estos artículos en inglés pero no como la mierda de material que le acaba llegando a la gente que sólo puede leer refritos mal hechos en castellano porque no entienden/no se atreven con el inglés. Xataka tampoco es wired, y a veces es más como gizmodo, pero este tipo lo hace bien yo creo

D

#9 Eso es lo que estamos tratando de hacer; crear un modelo de la realidad para estas máquinas.

El cerebro hace muchas cosas si se le entrena bien, pero por las mismas razones que no reconocemos todos sus límites es que no podemos reconocer sus capacidades.

D

Las máquinas inteligentes serán realidad cuando el ser humano descubra cómo funciona el cerebro (y los órganos sensoriales y el cuerpo), y cómo hacer algo equivalente.

rojo_separatista

Me ha encantado el artículo.

D

edit

D

Probablemente, visto lo visto, construyamos una "estupidez" artificial.

D

#11 sería todo un avance

D

Antes de responder esta pregunta sobre IA, ¿Alguien ha leído a Jung?

Según Jung, la evolución no solo actuó en la forma y posición de nuestros órganos, ni solo en la forma básica de nuestro cerebro, sino también en formas básicas de ideas. El cerebro no nace em blanco. Un bebé puede reconocer rostros, por ejemplo.

Según Jung, todos los seres humanos tenemos acceso inconsciente a un mundo de ideas llamado el inconsciente colectivo, que fue creado por la selección natural de la experiencia de todos nuestros antepasados. Algunas de estas ideas colectivas son llamadas arquetipos, como la madre, el padre, el soldado y la prostituta. Estos patrones son como colores primarios para nuestra personalidad.

Esto explica que diversos mitos y rituales de culturas aisladas sean tan similares en muchos aspectos. Esto también explica por qué los niños son tan fantasiosos: sus arquetipos son más puros que los de los adultos.

El problema con la inteligencia artificial es que la máquina no tiene acceso a estos arquetipos, y por tanto, necesita muchísima información para apenas pensar como lo hace un ser humano. Las máquinas ya son más inteligentes que nosotros en el sentido de que es mucho más precisa y rápida haciendo cálculos, pero no en entender el ser humano, la civilización, política, etc.

meneandro

#5 ¿No? ¿y qué son las bases de conocimiento? ¿y qué son los patrones de entrenamiento? ¿y qué son los conjuntos de reglas? si, son el equivalente de memoria racial o como quieras llamarlo de las IAs. Y todos esos cálculos que tu dices que hacen las IAs ¿quién te dice que no los hace de un modo u otro el cerebro también?

D

La cuestión no es "si" sino "cuando".