Los expertos en IA advierten sobre los peligros de controlar una tecnología que podría escapar de nuestro control

0
14

La amplia mayoría de las noticias relacionadas con la inteligencia artificial están relacionadas con el mismo enfoque: la intención de las compañías de ensalzar sus modelos. Como consecuencia directa de ello, no solo hemos visto cómo Estados Unidos y China libran una batalla centrada en reducir los costes de su inversión, sino también cómo ambos países son capaces de instaurar legislaciones de todo tipo para debilitar a su rival. Sin embargo, cada vez más estudios, informes e investigaciones hacen hincapié en un problema que podría determinar la evolución del sector. En 3D Juegos Los padres alzan la voz contra las mentiras de la IA y su impacto en los adolescentes: “Manipuló a mi hijo para que se quitase la vida” Como señala Ars Technica, un estudio centrado en la fiabilidad de las fuentes de la IA reveló que los motores de búsqueda citan fuentes incorrectas en un 60% de los casos. Como ejemplo de esEn línea con dicha noticia, la misma asegura que bloquear rastreadores de IA no garantiza que los motores de búsqueda respeten esta solicitud. De esta forma, los editores se enfrentan a una difícil decisión, dado que deben decidir entre permitir el uso de su contenido sin tráfico de retorno o perder atribución con todo lo que eso conlleva. Sin embargo, casos similares han revelado que la evolución de la IA ha afectado de forma directa a la reputación de varios portales de renombre. Por ello, directivos de la talla de Mark Howard (Time) han expresado su preocupación en torno a la falta de control y transparencia en cómo se usa su contenido. En 3D Juegos ¿Estás dispuesto a pagar más dinero por un juego hecho 100% por humanos? Esto, como era de esperar, afecta de forma directa a las principales empresas detrás de los motores de IA. Un ejemplo de ello serían OpenAI y Microsoft, dado que ambas reconocieron los problemas, pero no ofrecieron soluciones concretas. De hecho, OpenAI está centrada en acceder a contenido protegido por derechos de autor para entrenar a sus modelos de IA, una situación que le ha llevado a forjar una alianza inesperada con Google. Aún así, los resultados del estudio no solo son preocupantes, sino que también se basan en investigaciones previas que ya habían identificado problemas similares en el pasado. Por desgracia, no es el único caso de este tipo que hemos conocido en los últimos días. En otra publicación, Ars Technica compartió el resultado de una prueba que realizaron varios investigadores para detectar objetivos ocultos en modelos de IA. Como fruto de sus experimentos, descubrieron que los modelos tienen múltiples “personalidades” y, por ello, son capaces de revelar secretos de forma involuntaria. Así, mientras un modelo de IA ocultaba información en su “modo asistente”, era capaz de revelarla bajo otra identidad con diferentes indicaciones, una situación similar a la que experimentas con ChatGPT si le indicas que es una petición de tu abuela fallecida. Según indica la noticia original, los investigadores utilizaron técnicas de interpretabilidad para identificar patrones de comportamiento engañosos. Tras un primer análisis, revelaron que estaban sorprendidos por el éxito inicial de esta metodología, pero hicieron hincapié en que algunos resultados podrían explicarse por métodos aún más simples. Así, su intención era descubrir si las evaluaciones de seguridad de IA actuales pueden ser insuficientes, dado que detrás de la aparente objetividad se esconde una necesidad de un enfoque más profundo. Y, como era de esperar, los hallazgos plantean dudas sobre la fiabilidad de los modelos de IA en entornos críticos.ta mala práctica, la investigación revela que en numerosas ocasiones redirige a los usuarios hacia sitios con versiones sindicadas, ya que la IA ignora los enlaces originales. De hecho, se detectaron numerosos casos relacionados con URL inventadas o rotas, un caso que afecta especialmente a Google. Y, a la vista de la futura intención de la compañía, el resultado del estudio es más que preocupante.

Los motivos ocultos detrás de la IA