@Blackgem

¿Dónde viste lo de la IA para misiles? (muuuuy peliaguda la situación). Me suena haber leído algo así (experimentos en el ejército de los USA), pero hace unos meses.

Para un arma bélica el primer "mandamiento" de las leyes de la robótica de Asimov no se podría aplicar, así que como bien dices, habría situaciones impredecibles en las que la IA causaría un desastre simplemente porque no tiene moral o capacidad de planificación/abstracción.

Hay un aspecto muy importante del entrenamiento de IAs con base de datos llamado "trastorno de autofagia de modelos" (MAD, por sus siglas en inglés). Se produce cuando los modelos de IA se entrenan principalmente con datos sintéticos generados por máquinas en lugar de con datos frescos creados por humanos. Con el tiempo, la calidad y la diversidad de los resultados de la IA se degradan significativamente. (echale un ojo al artículo de NATURE en el que se ve muy bien la degradación en la generación de esas imágenes)

Los investigadores han descubierto que, sin una aportación continua de datos nuevos del mundo real, los modelos de IA empiezan a producir resultados menos precisos y más homogéneos. Se trata de algo parecido a la "enfermedad de las vacas locas", en la que la IA se "consume" a sí misma, lo que provoca una disminución de su rendimiento.

Así que para aumentar la competencia de los modelos actuales de IA (como por ejemplo, el supuesto proyecto fresa), se necesitan datos "fresquitos" que vengan de humanos. El problema que se plantea aquí es de dónde salen esos datos 👀