Recientemente, un grupo de notables de la industria informática, liderados por Elon Musk entre otros, ha solicitado mediante una carta pública la suspensión del “uso de los modelos de AI Generativa” durante un período de 6 meses con la intención de permitir a los gobiernos europeos finalizar las medidas regulatorias del sector.

The Artificial Intelligence Act, es una iniciativa europea de regulación de la Inteligencia Artificial (AI). De hecho, la primera y única existente en el mundo. La futura ley asigna a las aplicaciones de AI tres niveles de riesgo: 

*Riesgo Inaceptable: como los sistemas de puntuación social motorizados por el reconocimiento del rostro de las personas utilizado en China.

*Aplicaciones de alto riesgo: como los sistemas de escaneo de CV, utilizados en búsquedas laborales que suelen portar sesgos en sus modelos entrenados.

*Aplicaciones no reguladas: aquellas no listadas en las categorías anteriores.

La Inteligencia artificial está afectando nuestra vida, dirigiendo nuestras acciones, prediciendo nuestras compras y personalizando avisos comerciales, participando de nuestros diagnósticos médicos, en nuestros tratamientos contra el cáncer o en el acceso a oportunidades de educación y ofertas laborales, formando nuestra reputación digital y más, mucho más. Cotidianamente el accionar de la Inteligencia Artificial está operando en nuestras vidas, en ocasiones con resultados beneficiosos o con efectos adversos. Es así como, viviendo en este tiempo, debe importarnos el uso de estas nuevas tecnologías.  

Por supuesto, todo intento de regulación debe ser considerado y estudiado de forma que evite alterar la libertad de las personas y sistemas democráticos.

En este contexto, la carta mencionada y apoyada por una personalidad como Elon Musk ha generado una alerta y un llamado de atención. Específicamente, menciona una: “La carrera peligrosa hacia modelos de caja negra”. Pero ¿Qué son estos modelos de caja negra? 

En informática una caja negra (o black-box en inglés) es un concepto básico del análisis de procesos y la programación que enseñamos en los colegios segundarios o en los primeros años de las carreras de grado. Se refiere a un módulo, objeto o componente de software que se puede utilizar sin necesidad de conocer su funcionamiento interno. Es decir, se sabe qué entrada espera y qué salida produce, pero no se tiene conocimiento del código o la lógica interna que se utiliza para producir la salida.

En IA el concepto toma mayor relevancia. En este caso, se emplea con el objetivo de predecir la salida a partir de una entrada, sin necesidad de entender cómo funciona internamente el modelo o qué procesamiento realiza. Es decir, el modelo recibe una entrada, realiza algún tipo de procesamiento interno y produce una salida, pero no se sabe exactamente cómo se produce. El funcionamiento interno del modelo es desconocido para el usuario y solo se tiene acceso a la entrada y la salida del modelo. A menudo, estos modelos se utilizan en áreas como el aprendizaje automático y el aprendizaje profundo, donde los modelos son muy complejos y tienen millones de parámetros que interactúan de maneras intrincadas para producir una salida.

Si bien los modelos de caja negra pueden ser muy útiles para la predicción, también tienen algunas limitaciones. En particular, pueden ser difíciles de interpretar, lo que significaría un problema en caso de que se necesite entender cómo se produjo una salida en particular. Además, pueden ser propensos a errores y sesgos ocultos que, para rematar, se vuelven difíciles de detectar sin conocer el funcionamiento interno del modelo.

Quienes trabajan en análisis de datos conocen la dificultad que conlleva el momento donde es necesario explicar (y hasta convencer) a un cliente de la validez y precisión de un resultado. Demostrar que el modelo de predicción utilizado, el algoritmo implementado, el juego de datos de entrenamiento y testeo proporcionados, son capaces de dar validez a los resultados alcanzados es trabajoso y que frecuentemente obliga una pequeña celebración.

Sin embargo, cuando usamos un modelo de inteligencia artificial de caja negra, los usuarios llanos aceptamos rápidamente los resultados. “Lo ha dicho Google”, solemos decir. Es sorprendente que ChatGPT tenga que explicar frecuentemente que como “modelo de lenguaje, no tengo una identidad propia ni una conciencia de mí mismo.”. ¿Por qué lo repite insistentemente? Tal vez porque las personas le damos una entidad que no tiene. Una especie de moderno, inteligente y artificial Oráculo de Delfos. En definitiva, detenerse a evaluar las consecuencias tal vez sea intrínseco de la inteligencia humana.