La IA adquiere un monólogo interior y se vuelve increíblemente más inteligente
Una nueva investigación dice que proporcionar a los sistemas de inteligencia artificial (IA) un monólogo interno mejora significativamente su capacidad para razonar de manera efectiva. A diferencia de los métodos tradicionales en los que los sistemas de IA generan respuestas sin una consideración cuidadosa, Quiet-STaR anima a la IA a pensar en sus respuestas, de forma similar a la forma en que los humanos deliberan antes de hablar.
La IA puede anticipar las reacciones
Los resultados de aplicar Quiet-STaR a Mistral 7B, un modelo de lenguaje grande (LLM) de código abierto, son impresionantes. Antes de cualquier entrenamiento, el Mistral 7B obtuvo una puntuación del 36,3 por ciento en una prueba de razonamiento. Sin embargo, después de implementar Quiet-STaR, su puntuación saltó al 47,2 por ciento. Si bien la IA todavía tenía dificultades con tareas específicas, como un examen de matemáticas en la escuela, su rendimiento casi se duplicó cuando utilizó un sensor interno. Monólogo.
Máquinas de autoaprendizaje
Quiet-STAR crea un monólogo interior de Al generando una mezcla de respuestas con y sin fundamento. Esto permite a la IA seleccionar la respuesta más adecuada. También aprende de sus errores, descartando fundamentos incorrectos para perfeccionar sus capacidades de razonamiento con el tiempo. Este avance es significativo porque aborda la falta de razonamiento con sentido común y comprensión contextual de la IA.
La próxima generación de vehículos autónomos
Las implicaciones de Quiet-STaR van más allá de mejorar los chatbots. Cerrar la brecha entre los sistemas de IA y las capacidades de razonamiento humano allana el camino para aplicaciones más sofisticadas en todas las industrias. Desde chatbots de atención al cliente hasta diagnósticos médicos y vehículos autónomos, La IA con capacidades de monólogo interno podría revolucionar la forma en que los humanos interactúan con la tecnología.
Los peligros de la IA
Los peligros asociados con la IA conversacional (debido al monólogo interno del sistema) implican la manipulación selectiva de usuarios individuales con extrema precisión y eficiencia, lo que permite a actores maliciosos influir en comportamientos, opiniones y decisiones. La IA conversacional también implica la interacción en tiempo real entre los usuarios y los sistemas de IA, lo que permite a la IA detectar las reacciones de los usuarios y ajustar las tácticas para maximizar la persuasión.
Las redes sociales no pueden manejar la IA
A diferencia de las campañas de influencia tradicionales en las redes sociales, que son más generalizadas, la manipulación a través de la IA conversacional (con un monólogo interno) puede ser muy dañina al polarizar comunidades, difundir información errónea y amplificar el descontento.