AlbertoLoyola
Talento C-Suite Por Alberto Loyola

Desde la privacidad de los datos hasta el sesgo algorítmico y el uso de datos personales y sociales, el tema de la ética aplicado a la inteligencia artificial (IA) y la tecnología se ha posicionado como uno urgente a discutir. Y es sólo el comienzo.

El 2019 es el año en el que debemos abordar las difíciles preguntas sobre cómo implementar sistemas responsables de inteligencia artificial y abordarlos de manera directa para encontrar soluciones prácticas para que las sociedades, negocios y gobiernos prosperen.

La IA se basa en el big data y el aprendizaje automático para innumerables aplicaciones, desde vehículos autónomos hasta la visión computarizada, y desde sistemas de soporte de decisiones clínicas y salud hasta el procesamiento de datos. La disponibilidad de grandes cantidades de datos es esencial para el desarrollo de la IA.

Según el World Economic Forum (WEF), “los estándares éticos para evaluar la IA y sus tecnologías asociadas están aún en su infancia. Las empresas deben iniciar un debate interno, así como un debate externo con sus partes interesadas clave sobre cómo evitar quedar atrapados en situaciones difíciles… esto debido a que las aplicaciones de inteligencia artificial requieren cada vez mayores cantidades de datos para ayudar a las máquinas a aprender y realizar tareas hasta ahora reservadas para los seres humanos; las empresas se enfrentan a un mayor escrutinio público, al menos en algunas partes del mundo”

En este escenario surgen las siguiente preguntas: ¿cómo aseguramos el uso ético y responsable de la IA? ¿cómo podemos generar más conciencia sobre dicha responsabilidad, en ausencia de un estándar global sobre IA?

Es necesario un marco legal sólido para regular y establecer estándares técnicos, pruebas seguras, proteger la privacidad y confidencialidad para el despliegue de tecnologías de IA. Asimismo para que la confianza florezca, un código ético será igualmente importante.

Actualmente ya vemos la participación de las potencias mundiales compitiendo para explorar y explotar las posibilidades de desarrollo (R&D) de la inteligencia artificial. China está trabajando en un plan multimillonario extremadamente agresivo para la inversión gubernamental en investigación y aplicaciones de IA. El gobierno de los Estados Unidos emitió una orden ejecutiva el 11 de febrero del 2019, cuando el presidente Donald Trump alienta al país a hacer más con AI.

Accenture en su artículo “Responsible AI: with opportunity comes responsibility” menciona que “las compañías que actualmente están implementando proyectos exitosos de AI no sólo tienen sus ojos en los beneficios para su negocio. El lado ético de la IA también recibe una dedicación muy necesaria. Los adoptantes de AI prestan atención legítimamente a los efectos en las personas dentro de su propia organización, clientes y la sociedad en general”. Esta es una de las principales conclusiones de la encuesta AI Momentum, Maturity & Models for Success realizada por Accenture, Intel y SAS, en colaboración con Forbes Insight, realizada entre líderes de negocios globales.

Principios: ética en IA

A continuación algunos principios a seguir para hacer del impacto de la inteligencia artificial siga patrones éticos y responsables:

  • Gobernar: crear el marco adecuado para permitir que la inteligencia artificial florezca, anclado a los valores fundamentales de una empresa, las barreras éticas y los marcos de responsabilidad.
  • Monitor: supervisar y auditar el rendimiento de la IA en comparación con las métricas clave con respecto a la responsabilidad algorítmica, el sesgo y la ciberseguridad.
  • Reskill: democratizar el aprendizaje de la inteligencia artificial a través de la evaluación de habilidades, conocimientos y tareas que implicaran el desarrollo del uso de la IA. Los gobiernos, instituciones privadas, empresas y sindicatos son responsables en invertir en el entrenamiento de los empleados
  • Transparencia: en la toma de decisiones debe quedar claro cuando los sistemas de AI necesitan explicar de sus acciones y resultados para mostrar el por qué, cómo y cuándo se tomó algoritmos recomendaron o predijeron un resultado específico. Se necesitan explicaciones claras para el razonamiento de la máquina y así determinar la responsabilidad.
  • Evitar el sesgo: se deben promover valores fundamentales como la igualdad, la diversidad y la falta de discriminación creando los “data set” adecuados e invertir en entrenar modelos de IA que reduzcan cualquier predicción que genere discriminación.
  • Protección de datos e IP: la importancia de la protección de datos, la propiedad de IP y la seguridad cibernética debe reconocerse y equilibrarse frente a la necesidad de utilizar los datos para promover la innovación.
  • Ciberseguridad: la necesidad de una fuerte protección contra la piratería aumentará a medida que los sistemas de AI tengan un mayor papel en la sociedad.

IA responsable: esfuerzo colectivo

La única forma de que AI responsable se convierta en realidad es con la participación plena de todos los sectores. Los gobiernos deben crear un entorno regulatorio compatible con AI en cumplimiento de la privacidad de los datos y la protección de la propiedad intelectual. Como establece Rumman Chowdhury en Responsible AI Lead at Accenture Applied Intelligence, “las organizaciones deben proporcionar pautas prescriptivas, específicas y técnicas para desarrollar sistemas de AI que sean seguros, transparentes, explotables y responsables, para evitar consecuencias no deseadas y desafíos de cumplimiento que pueden ser perjudiciales para las personas, las empresas y la sociedad. Los científicos de datos están ansiosos por estas pautas”.

Si te gusta este artículo, por favor, compártelo con tu network. Y comparte tus comentarios conmigo… Me gustaría escuchar tu feedback. ¡Muchas gracias!

¿Te gustaría leer más artículos? Click here!

Author

Albert Loyola is a Tech and AI HR Evangelist. His research and work focus around the future of work, artificial intelligence, employee experience and digitization of the workplace and the impact in HR. Alberto’s work has been featured on different media players and he’s also the founder of Ignite Organizations an HR tech & AI discussion forum. Connect with Albert.

© Copyright 2019. This article may be reprinted provided the following credit line is present: Albert Loyola Future Workforce Advisor | HR Tech & Artificial Intelligence Evangelist | Future of Work Speaker & Writer

LinkedIn