f

#167 La cosas necesitan su tiempo de desarrollo, y no lo hacen de forma lineal. Empiezan lentamente y poco a poco se va acelerando su progreso.

Si no estás un poco metido en el mundillo no es fácil haberse dado cuenta, pero los avances que se han dado desde 2017 han sido increíbles, y ahora prácticamente cada semana sale algo nuevo. Tenemos por ejemplo:

- AlphaFold 2 (predicción de plegado de proteínas con una precisión del 96% o así y en horas, un salto que va a revolucionar el campo de la biomedicina)
- En procesado de lenguaje natural hemos pasado de GPT a GPT-2, y ahora a GPT-3 en nada de tiempo. Y lo mejor, GPT-3, es capaz de resolver infinidad de tareas que en principio no tienen nada que ver con el lenguaje, pero convirtiendo los problemas a palabras o tokens, digamos burdamente que explicándole cuál es el problema que quieres resolver, te lo resuelve. Está empezando a ser capaz de diseñar páginas web, escribir algoritmos sencillos, etc... incluso generar y procesar imágenes a base de, más o menos, procesar listas de valores representando los pixeles.
- En procesamiento de imágenes igual. Se han dado grandes saltos. Y igual que con GPT-3, no sólo son capaces de resolver problemas de imágenes, sino que convirtiendo otros problemas a imágenes (por ejemplo, pasándole un espectrograma de audio) están empezando a ser capaces de resolver problemas muy variopintos.

Y personalmente, no digo que vayan a ser algún día como un humano o que no; no lo sé. Ni falta que hace. De hecho casi preferiría que no, si no queremos que un día nos dominen. Me conformo con que hagan muy bien las tareas para las que las entrenemos, y eso estamos empezando a conseguirlo.

Si tienes curiosidad por el tema, te recomiendo que veas este vídeo de DotCSV que publicó hace unos días y donde hace un repaso a las cosas que comento y otras más:



Y si te engancha, pues el resto de sus vídeos. El chaval los hace bastante amenos y divulgativos, aunque algunas veces pueda meterse demasiado a fondo en los detalles técnicos, al menos las partes introductorias de los vídeos suelen ser muy asequibles.

f

#50 ¿Que qué ha hecho Google? Pues no es una empresa que me resulte especialmente simpática pero hay que reconocerle que está haciendo cosas increíbles.

Nada más que hace unos días:

https://www.infobae.com/america/ciencia-america/2021/06/06/google-y-harvard-presentaron-el-mapa-cerebral-3d-de-alta-resolucion-mas-completo-del-mundo/

A finales del año pasado:

https://www.technologyreview.es/s/12935/la-ia-de-plegamiento-de-proteinas-de-google-resuelve-un-historico-desafio-de-la-biologia

Poca cosa... vamos.

Y lleva años con los de los coches autónomos, computación cuántica, tarjetas aceleradoras para IA...

M

#144 No estoy diciendo que no hagan cosas buenas, y que algunos servicios puedan incluso ser útiles.

Pero quizá deberíamos replantearnos el Internet de forma GENERAL y en cómo afecta a nuestras vidas, a la sociedad, tanto para bien como para mal.

f

#51 No sé si sólo estabas intentando ser irónico, pero muchas vacunas llevan mercurio (tiomersal). Es una de las cosas que han dado pie a los anti-vacunas. Menos mal que, creo, se están empezando a usar alternativas porque, lejos de defender a los anti-vacunas, inyectarse mercurio no me parece muy sano.

f

#49 Perdona que te lo comente, pero me pasa precisamente lo mismo con muchos de tus comentarios a causa de tus "si no" y "por que". Sueles escribir comentarios interesantes, largos y elaborados, pero es una lástima porque, precisamente por ser largos, a veces da pereza tener que releer tus frases cada dos por tres. Consejo amistoso: dedica un ratito a aprender a usar correctamente "si no"/"sino" y las cuatro formas de "por-que", que harán tus comentarios mucho más agradables de leer. Un saludo.

f

#67 ¿Cómo que no usamos tildes ni comas cuando hablamos? Evidentemente no aparecen físicamente, flotando sobre nuestras cabezas en plan personaje de videojuego o similar, pero dime si pronuncias de la misma forma las siguientes preguntas, con significados muy diferentes:

¿Que viene mañana?
¿Qué viene mañana?
¿Qué viene, mañana? o ¿Qué viene?, ¿mañana? (sinceramente no estoy seguro de cuál de las dos es más correcta)

Si acaso es lo contrario: la lengua hablada tiene una riqueza en acentos, entonaciones y pausas que las tildes y signos de puntuación no siempre alcanzan a plasmar con la misma precisión en la lengua escrita.

D

#70 La entonación no es lo mismo que la ortografía.

f

#214 No te preocupes. Pero los he encontrado pasando a modo "ordenados" y buscando en la página por "Edison", que es menos engorroso

f

#212 Anda que no fijarme en que era una revisión antigua... Y más cuando me resultaba sospechoso que durase. Ya me vale

¿Cuáles son las de Edison?

m

#213: Pues no sé exactamente, pero le ponían "Douchebag" por un comic de The Oatmeal.
Mira alguno de los comentarios que puse en el hilo, sube poco a poco haciendo clic en el enlace (en el tuyo por ejemplo, haz clic en el 212 y sigue) hasta que salga alguno donde puse enlaces, pero tampoco enlacé gran cosa, sólo las páginas de discusión. Es que rebuscar todo es bastante curro.

f

#214 No te preocupes. Pero los he encontrado pasando a modo "ordenados" y buscando en la página por "Edison", que es menos engorroso

f

#65 Ja ja, qué troleada lo de la tabla (y raro que los revisores hayan dejado la columna).

Por cierto, estuve sentado a su lado en la Campus Party 2000. De lo que no me acuerdo es de si siempre saludaba o no.

m

#211: Es una revisión antigua, no creo que durase mucho, igual que las de Edison.

f

#212 Anda que no fijarme en que era una revisión antigua... Y más cuando me resultaba sospechoso que durase. Ya me vale

¿Cuáles son las de Edison?

m

#213: Pues no sé exactamente, pero le ponían "Douchebag" por un comic de The Oatmeal.
Mira alguno de los comentarios que puse en el hilo, sube poco a poco haciendo clic en el enlace (en el tuyo por ejemplo, haz clic en el 212 y sigue) hasta que salga alguno donde puse enlaces, pero tampoco enlacé gran cosa, sólo las páginas de discusión. Es que rebuscar todo es bastante curro.

f

#214 No te preocupes. Pero los he encontrado pasando a modo "ordenados" y buscando en la página por "Edison", que es menos engorroso

f

Enfadarse porque alguien corrija tu (sin tilde, por cierto) ortografía y gramática en unos comentarios donde criticas la de los demás es el colmo de la hipocresía.

¿Dónde hay una falta ortográfica en mi comentario? Y sí, enlazar por error un comentario al que respondías en vez de al tuyo es imperdonable. Ahora voy y me doy 10 latigazos.

f

#235 Cierto, perdona por enlazarte. Era #31. Pero ya no me deja editar

f

Pues anda que te llevas tú bien también con las tildes. Así, de rapidez:

#19 leído, cómo, leído, policías, qué crees, tú, dé, país, policías, mínima, fantástico...
#22 cómo, mí, esté, policías
#106 mí, enseñó

Y el "si no" ese en #19... criminal...

M

#234 Creo que la referencia a #22 es errónea, mira a ver si te da tiempo a corregirlo

f

#235 Cierto, perdona por enlazarte. Era #31. Pero ya no me deja editar

D

#234 Te podías haber ahorrado escribirme, basicamente porque para escribir hay que saber hacerlo, y no es tú caso, lo siento.
Corrige tus faltas primero antes de señalar las de los demás, que sabes de ortografía, lo mismo que de enlazar, como ya has demostrado.

f

#5 Hay faltas de ortografía que comprendo que ocurran (h, b/v, etc), pero otras... Sinceramente, lo pregunto en serio: ¿has probado a leer en voz alta la pregunta con ese "porque" junto (y sin tilde)? ¿De verdad que no te suena raro?

f

#274 Vale, pero es que no estabas hablando de LCDs de hace 10 años, con CCFL (fluorescentes), sino de hoy en día, con LEDs, que consumen mucho menos. No sabía que habían bajado el consumo de las plasmas en 2011, pero aún así estamos hablando de unos 350W (plasma de 2011 de 60", más o menos equivalente a la mía de 2009) frente a unos 55W de ahora o los 100 y pico de 2011.

Las plasmas desparecieron por tres razones: la tecnología LCD empezó a ser más barata a igualdad de tamaño, la moda de querer las TVs cada vez más delgadas (hasta el punto de que las LCDs dieron un paso hacia atrás, volviendo muchos modelos a iluminación LED desde el borde, en vez de trasera que ofrece más uniformidad de luminosidad, y si es por zonas mejor contraste) y porque llegaron a lo que creyeron que era el límite de densidad de píxeles de la tecnología plasma, que no permitía pantallas FullHD de menos de no sé cuántas pulgadas (¿40 o así?) y no hubiera permitido llegar a 4K ni con 60". ¿Que si hubieran seguido investigando lo habrían conseguido? Pues quizás, pero les era más rentable invertir en desarrollar las LCDs, que era lo que se vendía.

Ahora que, como comentas, en calidad de imagen (especialmente contraste y pureza de color) vs coste hasta hace poco, con las OLED y los microLEDs que ya están bajando de precio, no se han vuelto a acercar a las plasmas. De hecho aún ni me planteo substituir mi plasma, a pesar del calorín que da en verano la puñetera tele (en invierno sí que se agradece).

Por cierto, otra pega de las plasmas es el dichoso cristal, que por mucho tratamiento antirreflejos que tenga las hace difícil de ver a poco que haya un poco más de luz de la cuenta, especialmente si no estás justo enfrente.

f

#85 Bastante menos. Los plasmas consumían una barbaridad. Aún tengo uno de 50" del 2009 y puede llegar a 500W cuando muestra imágenes brillantes. Y aquí tienes un LED de 60", cogido al azar, que se queda en 54W: https://www.lg.com/us/tvs/lg-60LN5400-led-tv

cazajuegos

#273 Mi plasma de 42" de 2009 consume 179W (las de 2011 menos aún). Desconozco los LCD de 60" del 2009 lo que consumían, pero igual alguno llegaba a 100W. Luego está la moda de ver las TV con brillo cegador, que no es bueno ni para la TV, ni para el espectador (¡muerte al modo dinámico!). Un buen plasma necesitaba menos brillo que un LCD para una calidad de visionado óptima. Lo único que creo es que no se les dió la oportunidad de desarrollarse tecnológicamente hasta su plenitud en cuanto a consumo.

f

#274 Vale, pero es que no estabas hablando de LCDs de hace 10 años, con CCFL (fluorescentes), sino de hoy en día, con LEDs, que consumen mucho menos. No sabía que habían bajado el consumo de las plasmas en 2011, pero aún así estamos hablando de unos 350W (plasma de 2011 de 60", más o menos equivalente a la mía de 2009) frente a unos 55W de ahora o los 100 y pico de 2011.

Las plasmas desparecieron por tres razones: la tecnología LCD empezó a ser más barata a igualdad de tamaño, la moda de querer las TVs cada vez más delgadas (hasta el punto de que las LCDs dieron un paso hacia atrás, volviendo muchos modelos a iluminación LED desde el borde, en vez de trasera que ofrece más uniformidad de luminosidad, y si es por zonas mejor contraste) y porque llegaron a lo que creyeron que era el límite de densidad de píxeles de la tecnología plasma, que no permitía pantallas FullHD de menos de no sé cuántas pulgadas (¿40 o así?) y no hubiera permitido llegar a 4K ni con 60". ¿Que si hubieran seguido investigando lo habrían conseguido? Pues quizás, pero les era más rentable invertir en desarrollar las LCDs, que era lo que se vendía.

Ahora que, como comentas, en calidad de imagen (especialmente contraste y pureza de color) vs coste hasta hace poco, con las OLED y los microLEDs que ya están bajando de precio, no se han vuelto a acercar a las plasmas. De hecho aún ni me planteo substituir mi plasma, a pesar del calorín que da en verano la puñetera tele (en invierno sí que se agradece).

Por cierto, otra pega de las plasmas es el dichoso cristal, que por mucho tratamiento antirreflejos que tenga las hace difícil de ver a poco que haya un poco más de luz de la cuenta, especialmente si no estás justo enfrente.

f

#255 #212 Pero qué tecnología ficción, ni brazos robótizados, ni qué leches... Estáis discutiendo "teóricamente" sobre una tecnología que ya existe. Por ejemplo:

f

#147 Clarificación: tengo dos monitores también, uno FullHD y otro 4K.

Por cierto, que ahí hay que reconocer que brilla macOS... lleva años soportando perfectamente múltiples monitores con diferentes densidades de pixel simultáneamente: estándar y HiDPI, cosa que, aún hoy, ni en Linux ni en Windows funciona sin dar problemas de vez en cuando. De hecho, en la mayoría de distribuciones falla estrepitosamente "de fábrica" (de las varias distribuciones que he probado, la única en que funcionó bien directamente tras instalar fue Pop!_OS).

f

#146 Ah, pues no sé. No lo he usado recientemente, pero lo probé hace unos meses (me estuve planteando pasar de macOS a Windows 10+Windows subsystem for linux y no tuve problemas).

Ahora... que macOs y nvidia... eso sí es buscarse problemas. Es la principal razón por la que he dejado macOS, porque necesito CUDA. La otra es que no me gustan los derroteros por los que está tirando macOS, cada vez más cerrado y tendiendo a como funciona iOS.

f

#147 Clarificación: tengo dos monitores también, uno FullHD y otro 4K.

Por cierto, que ahí hay que reconocer que brilla macOS... lleva años soportando perfectamente múltiples monitores con diferentes densidades de pixel simultáneamente: estándar y HiDPI, cosa que, aún hoy, ni en Linux ni en Windows funciona sin dar problemas de vez en cuando. De hecho, en la mayoría de distribuciones falla estrepitosamente "de fábrica" (de las varias distribuciones que he probado, la única en que funcionó bien directamente tras instalar fue Pop!_OS).

f

#141 #144 Creo que casi todo lo que he dicho se puede resumir como: "en macOS se usan mucho las teclas modificadoras, y Alt en particular te abrirá un mundo de nuevas posibilidades". Probad a pulsar Alt al abrir menús y veréis (por ejemplo, muchos iconitos de la barra superior muestran opciones avanzadas cuando se abren pulsando Alt).

D

#145 SI te digo la verdad no me sorprende que puedan hacerse esas cosas. Pero dejan muchisimo que desear, son contraintuitivas. Aun sabiendolas ahora (gracias por tu comentario , la verdad) me siguien pareciendo un engorro.

f

#141 #144 Creo que casi todo lo que he dicho se puede resumir como: "en macOS se usan mucho las teclas modificadoras, y Alt en particular te abrirá un mundo de nuevas posibilidades". Probad a pulsar Alt al abrir menús y veréis (por ejemplo, muchos iconitos de la barra superior muestran opciones avanzadas cuando se abren pulsando Alt).

D

#145 SI te digo la verdad no me sorprende que puedan hacerse esas cosas. Pero dejan muchisimo que desear, son contraintuitivas. Aun sabiendolas ahora (gracias por tu comentario , la verdad) me siguien pareciendo un engorro.

f

#115 La propia "Task View" de Windows 10. ¿O hay algo en particular que echas de menos?

Dunnotheman

#143 Que se colgaba desde hace meses por un bug de nvidia si usabas dos o más monitores.

f

#146 Ah, pues no sé. No lo he usado recientemente, pero lo probé hace unos meses (me estuve planteando pasar de macOS a Windows 10+Windows subsystem for linux y no tuve problemas).

Ahora... que macOs y nvidia... eso sí es buscarse problemas. Es la principal razón por la que he dejado macOS, porque necesito CUDA. La otra es que no me gustan los derroteros por los que está tirando macOS, cada vez más cerrado y tendiendo a como funciona iOS.

f

#147 Clarificación: tengo dos monitores también, uno FullHD y otro 4K.

Por cierto, que ahí hay que reconocer que brilla macOS... lleva años soportando perfectamente múltiples monitores con diferentes densidades de pixel simultáneamente: estándar y HiDPI, cosa que, aún hoy, ni en Linux ni en Windows funciona sin dar problemas de vez en cuando. De hecho, en la mayoría de distribuciones falla estrepitosamente "de fábrica" (de las varias distribuciones que he probado, la única en que funcionó bien directamente tras instalar fue Pop!_OS).