La IA lo ve todo. Mozilla revela cómo el modelo de Anthropic ha transformado la seguridad de su navegador. Lo ha hecho detectando fallos "imposibles" y disparando un 1.200% el volumen de parches mensuales. Los célebres 'bug bounty' que animaban a los expertos humanos a detectar nuevos fallos y les premiaban con suculentos premios económicos podrían dejar de tener sentido ante el uso de herramietnas como Claude Mythos.
|
etiquetas: hype , claude , mythos , firefox , fallos
www.youtube.com/watch?v=-j6dQK_MggU
-------
El vídeo de Brendan Dell sostiene que gran parte del discurso actual sobre la IA utiliza un mecanismo psicológico muy antiguo para exagerar capacidades y generar inversión, atención y miedo.
La idea central es esta:
Muchas empresas y directivos de IA presentan anuncios dramáticos como “este modelo es demasiado peligroso”, “la AGI está cerca” o “la IA cambiará toda la sociedad”, aunque esas afirmaciones sean difíciles de verificar… » ver todo el comentario
Es como el chiste.
- Tropa, teneis que hacer que la IA os conteste los emails.
+ Jefe, estás diciendo que debemos dejar que la IA conteste tus emails generados por IA?
- Exacto, dejad de perder el tiempo leyendo el email
En estos momentos, todos los servicios de IA ingresan por subscripciones unos 15 mil millones al año.
Si el gasto en infraestructura parara ahora en seco y el número de usuarios de pago se duplicará cada año, no se recuperaría la inversión hasta 2034.
Y hay varias consideraciones: primero es que no se van duplicar le número de usuarios todos los años y segundo, el CAPEX de los grandes hyperscalers está… » ver todo el comentario
No sólo del lado del dinero disponible. Muchas empresas (que es de donde pueden proceder los ingresos) están ahora jugando con la IA en plan prueba. No tienen unos procesos establecidos. No han encontrado una forma de que esa "solución a la búsqueda de un… » ver todo el comentario
No es mucho, pero me lo puedo permitir y no es lento.
Estoy usando opencode y de momento estoy muy contento con el resultado.
¿Cómo saber si hay algunos bugs o vulnerabilidades que se deja sin comunicar aunque sí los detecte?
(O que han decidido no entrenarla para que detecte esos bugs o vulnerabilidades secretas en particular)
Basicamente el problema con la IA es que si le dejamos hacer ¿Cuando se jubilen los senior quien sera capaz luego de auditar lo que hace la IA si eliminamos el aprendizaje junior humano necesario para aprender a hacer ese trabajo?
Pues en vez de en prácticas o como junior en empresas, las personas tendran que formarse en universidades y masters pagando. Para que merezca la pena pagar los cursos y años que haga falta, los salarios de esos profesionales tendran que ser lo suficientemente altos.
la universidadninguna formacion por escolarizacion adquieres la experiencia real necesaria para convertirte en un experto, da igual de la profesion de la que estemos hablando. Sales mas o menos preparado para poder asimilar la experiencia con mayor o menor rapidez, pero sigue siendo imprescindible.¿Te imaginas a un medico operando directamente tras salir de la universidad, sin pasar por el mir ni nada?
Pq no te vas a fiar de q entendió la IA q habia q hacer.
Y ese día llegará, es simplemente cuestión de tiempo.
Precisamente un uso responsable sería no hacer armas con ello.
Una estrategia de hack como otra cualquiera…
Entre IAs, niñatos esperando que les des una recompensa por descubrir """vulnerabilidades""", criptobros queriendo pillar cacho en airdrops y tarados esperando que les añadas features qué solo ellos necesitan , hacer OpenSource hoy día es un coñazo
Me quedan 152 fallos que no participo la IA sin contar los que ya eran conocidos, ya que siendo la media en meses anteriores de errores corregidos de unos miseros 20, entiendo que en Firefox están en una campaña intensiva de corrección de bugs . y de paso están aprovechándose para hacer publicidad del tema.
www.anthropic.com/news/mozilla-firefox-security
La noción de que la inteligencia artificial es meramente un "loro estocástico" o un predictor de palabras simplifica en exceso la complejidad de las representaciones internas y las capacidades emergentes de los modelos de lenguaje actuales. Si bien el entrenamiento se basa en la probabilidad estadística, el resultado es una arquitectura capaz de realizar razonamientos lógicos, abstracciones conceptuales y síntesis de información que superan la simple repetición de patrones.
Claro que no hace ninguna falta. ChatGPT es igual de eficaz en eso.