Garantía de integridad en inteligencia artificial en 2022

Conferenciante: Uri Guterman, director de producto y marketing, Hanwha Techwin


La inteligencia artificial (IA) está ahora presente en casi todos los aspectos de nuestras vidas y, al hacerlo, la sociedad se enfrenta al desafío de seguir el ritmo de sus avances en plena Cuarta Revolución Industrial. Tiene un gran potencial en muchos aspectos de nuestras vidas, desde mejorar la seguridad y la eficiencia de nuestras ciudades y guiar vehículos autónomos, hasta comprender el comportamiento del consumidor en una tienda y apoyar las medidas de salud pública.

Pero todo este potencial implica algunos riesgos. Por ello, muchas organizaciones analizan detenidamente cómo la inteligencia artificial podría empeorar la desigualdad y los sesgos sociales, y cómo combatir esto mediante el desarrollo de una inteligencia artificial ética y responsable. De hecho, como parte del Hanwha Group, queremos mejorar la calidad de vida con nuestras innovaciones y soluciones. La inteligencia artificial desempeña una función fundamental en esto, siempre que se desarrolle y utilice de manera responsable. 

Hace poco, el grupo , Gartner identificó la «IA más inteligente, responsable y escalable» como la tendencia número uno del mercado en 2021. Una tendencia que deberá continuar en 2022, siendo la confianza pública aún relativamente baja. Casi dos tercios de las personas tienden a desconfiar de las organizaciones.

La clave para esto es incorporar la integridad en su estrategia de inteligencia artificial y garantizar que todos los productos que la utilizan lo hagan de manera ética y responsable. Y simultáneamente, que cualquier socio o proveedor con el que se alinee su organización comparta los mismos valores y sentido de responsabilidad para hacer lo correcto.

Comunicación y colaboración

El director ejecutivo de Edelman Richard Edelman recomienda romper el ciclo actual de desconfianza uniendo a las personas en temas comunes y logrando un franco progreso en las áreas de preocupación. Además, aconseja a las instituciones que den información real que no se base en la indignación, el miedo o los «ciberanzuelos», sino que se informe y eduque sobre los principales problemas sociales.

Ahí radica una clara oportunidad para crear una mayor integridad en la inteligencia artificial. La confianza se basa en que todos estén coordinados, con el mismo acceso a los hechos y en la capacidad de transmitir sus pensamientos y comentarios a los creadores de productos y líderes empresariales. 

En la práctica, esto significa comunicar el uso y los beneficios de la inteligencia artificial a las partes interesadas, incluidos los clientes, socios, inversores y empleados. Sin embargo, la investigación ha demostrado que las personas perciben la «amenaza» de la inteligencia artificial de manera diferente en función de factores como la edad, el sexo y el conocimiento previo de la materia. El mismo estudio encontró que existe una gran diferencia entre la percepción de las personas sin experiencia y la realidad cuando se trata de la inteligencia artificial. Aún queda mucho por explicar en muchas de sus aplicaciones (como la prevención de delitos)

Por lo tanto, al comunicar cualquier nueva solución de inteligencia artificial, vale la pena considerar los diferentes niveles de conocimiento que deben adaptarse. Mejor aún, considere las diferentes prioridades, puntos débiles y preocupaciones de cada audiencia en particular y adapte su mensaje. Esto garantiza que todos lleguen reciban el mensaje con el mismo nivel básico de conocimiento sobre un caso de uso de inteligencia artificial. 

Actuar sobre valores

Los valores ahora están al frente y en el centro de todas las organizaciones. Sin embargo, una cosa es tener un conjunto de valores y otra cosa es actuar proactivamente de acuerdo con esos valores, con cada decisión comercial. La planificación anticipada es el secreto para ser una organización responsable y orientada a los valores. Tener estrategias y herramientas implementadas ayuda a cumplir con los valores corporativos en el momento, sin importar la urgencia. 

En Hanwha Techwin, nuestros valores de «desafío, dedicación e integridad» y el espíritu de «Confianza y Lealtad» están integrados en todo lo que hacemos. Desde nuestra estrategia hasta nuestros productos y nuestras innovaciones.

La Integridad en Hanwha significa que nos atenemos a nuestros principios, que somos imparciales y que nos enorgullecemos de hacerlo así. En la práctica, significa que cumplimos las promesas hechas a nuestros clientes y socios, que no escatimamos recursos en el desarrollo de nuestros productos, que nuestro rendimiento y calidad se mantienen constantes y que todos los empleados comprenden nuestros valores y expectativas

Gobernanza corporativa

Formar a los líderes y a la dirección sobre el potencial y los riesgos de la inteligencia artificial es fundamental para demostrar la propiedad y un liderazgo ético desde la cúpula hacia el resto de la empresa. Asegura la supervisión de la inteligencia artificial por la dirección de la empresa y esta orientación se establece en todos los niveles de la organización. 

Algunas de las áreas en las que la dirección senior puede indicar las pautas a seguir incluyen:

  • Una comunicación clara con todas las partes interesadas sobre cómo se recopilan, protegen y utilizan los datos.
  • La transparencia sobre el proceso de toma de decisiones basada en la inteligencia artificial y la garantía de una correcta supervisión por parte de las personas.
  • Garantizar que los sistemas de inteligencia artificial se utilicen de forma ética, que estén libres de prejuicios y que no se utilicen atributos protegidos. 
  • Los datos y los sistemas de inteligencia artificial están protegidos contra las partes malintencionadas.

Continuar el liderazgo

En Hanwha Techwin, la integridad está en nuestro ADN. Sin confianza en nuestros productos, no podríamos continuar innovando y encontrando soluciones para los desafíos del mundo actual. La propia inteligencia artificial sufrirá un impacto negativo sin una comprensión y aceptación generalizadas. Es por eso que la integridad es fundamental para la inteligencia artificial como lo son los datos utilizados para entrenarla. 

 

Para leer más sobre este tema: Cómo hacer que los robots sean más eficientes gracias al vídeo