Desde un poder desconocido hasta una herramienta confiable, construir el futuro de la IA consiste en hacer las preguntas correctas.
La Reunión Anual de ISO se llevará a cabo en Brisbane, Australia, del 18 al 22 de septiembre de 2023. ISO y sus miembros unen filas con los creadores de cambios mundiales para mostrar cómo las Normas Internacionales ayudan a abordar los mayores desafíos del mundo. Publicada antes del evento, nuestra serie de artículos invitados brinda información sobre una variedad de temas que se discutirán durante la semana.
En la vida cotidiana, la conversación más común sobre inteligencia artificial (IA) va del siguiente modo: "Usé ChatGPT y funcionó x". Sin embargo, los líderes corporativos, los gobiernos y las organizaciones internacionales están manteniendo una conversación muy diferente. El suyo es cómo se pueden utilizar los beneficios de la IA de manera que superen los riesgos.
Algunos argumentan que necesitamos regular urgentemente la IA, otros la comparan con el movimiento nuclear y algunos incluso advierten que acabará con el mundo. Al mismo tiempo, muchos consultores y empresas emergentes quieren hacernos creer que la IA es la panacea para todos nuestros males comerciales y personales, incluidos el amor, la vida y la letalidad . Es demasiado pronto para sacar muchas conclusiones, pero es importante que las personas adecuadas mantengan las conversaciones adecuadas. Sólo entonces esta tecnología innovadora podrá apoyar y empoderar a la humanidad.
Hacer las preguntas correctas
La verdad es que hay muchas conversaciones sobre IA que no estamos teniendo y que deberíamos tener. Estos incluyen las implicaciones sociales más amplias de acelerar la desigualdad y reducir a las personas a puntos de datos , hasta un punto en el que pueden presentarse como redundantes o ya sin valor. Cada avance de la ciencia a lo largo de la historia ha tenido beneficios y riesgos. De hecho, los fracasos históricos pueden enseñarnos lecciones para evitar cometer los mismos errores. La IA, aunque distinta en algunos aspectos, plantea muchos de los mismos peligros potenciales que los cambios de paradigma anteriores. Las promesas excesivas, el riesgo subestimado y los intereses comerciales que influyen en las conversaciones no son algo nuevo. ¿Entonces que hay de nuevo? ¿Y por qué debería importarnos?
Gran parte de lo que estamos hablando es antiguo. Los modelos de lenguaje han existido desde que Weizenbaum, el creador de uno de los primeros chatbots, Eliza, acuñó la idea del pensamiento mágico en torno a modelos de lenguaje en la década de 1950. Más recientemente, las propias comunidades de ciencia de datos comenzaron a expresar preocupaciones sobre algunas propuestas sobre cómo podríamos usar ChatGPT2, incluso para automatizar la sentencia, potencialmente hasta la pena de muerte, sin intervención humana. Aunque la tecnología ahora está sobrecargada con conjuntos de datos más grandes, muchos de los viejos problemas persisten. Lo nuevo es la velocidad y la escala de estos modelos y de dónde provienen sus datos.
El hecho es que no podemos pensar en los riesgos de la IA según los criterios convencionales.
Gobernancia
La buena noticia es que ya existe toda una caja de herramientas de gobernanza. Esto incluye legislación nacional e internacional sobre propiedad intelectual, comportamiento corporativo, derechos humanos, discriminación, contratos y privacidad, solo por nombrar algunos. Muchos expertos de todo el mundo, como el Prof. Edward Santow, han abogado durante mucho tiempo por mejorar las habilidades de los abogados para que puedan comprender y aplicar tanto la legislación existente como las nuevas tecnologías dentro de su profesión.
Sin embargo, paralelamente a la legislación, también debería considerarse una mayor regulación. Ya existen marcos regulatorios, como la recientemente formulada Ley de IA de la UE, el Instituto Nacional de Estándares y Tecnología y la nueva política de China sobre IA. Pero algunos necesitan actualización o revisión, y hay lagunas. Y donde haya lagunas, deberíamos regularlas.
Mitigar el riesgo, maximizar la recompensa
El hecho es que no podemos pensar en los riesgos de la IA según los criterios convencionales. Andrew Maynard, profesor de la ASU y experto en riesgos desde hace mucho tiempo, se mantiene firme en esto: el pensamiento tradicional simplemente no “nos lleva a donde necesitamos estar”.
Normas internacionales como las de ISO/IEC JTC 1/SC 42 sobre gestión de IA ayudarán a cerrar estas brechas en la regulación. Permiten a los tomadores de decisiones y a los formuladores de políticas crear datos y procesos consistentes de una manera que sea auditable. Esto agregará valor a las empresas a largo plazo de muchas maneras, incluidos los informes ambientales, la operatividad y la credibilidad ante las partes interesadas. Este enfoque garantizará que las recompensas superen los riesgos, en consonancia con las regulaciones y otras herramientas de gobernanza.
La ética de los datos también tiene un papel que desempeñar. Si se utiliza y aplica correctamente, la ética de los datos puede ayudar a fomentar el deseo (desde las decisiones de liderazgo hasta las tareas cotidianas) de “hacer las cosas no sólo porque puedes, sino porque debes”.
Pero lo más importante es que las normas internacionales pueden garantizar que las personas adecuadas mantengan las conversaciones adecuadas, utilizando un lenguaje compartido. Puede que lleve tiempo construir las herramientas regulatorias y la cultura que necesitamos. Pero las Normas Internacionales pueden ayudar a garantizar que logremos el equilibrio adecuado entre riesgo y recompensa.
Dr. Kobi Leins
Miembro senior honorario, Departamento de Estudios de Guerra, King’s College London
Fuente: iso.org