7 claves para usar IA de manera responsable

google
Por metamorworks / Shutterstock

La inteligencia artificial es una de las principales herramientas dentro de las empresas, tanto para el desarrollo de procesos y cuestiones administrativas como para el relacionamiento con clientes y la creación de un servicio eficiente. Sin embargo, además de los beneficios, su uso también implica retos importantes para las empresas, sobre todo en temas de seguridad y gestión responsable.

Una de las empresas que ha hablado sobre la importancia de la Inteligencia Artificial es Google, la cual ha explicado que emplea esta tecnología para hacer que sus productos sean más útiles, desde correo electrónico libre de spam y más fácil de redactar, un asistente digital al que se le puede hablar de forma natural, hasta fotos capaces de destacar ciertos elementos.

En ese sentido, la compañía también ha expresado su posición respecto a la trascendencia de esta herramienta: "Reconocemos que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso. La manera en que se desarrolle y use la IA tendrá un impacto significativo en la sociedad por muchos años más", expresaron voceros de Google por medio de un comunicado de prensa.

Es por esa razón que la compañía se comprometió a regular su actividad con base en siete claves que determinan bajo qué criterios debe usarse la IA.

1. Ser socialmente benéfica: esto significa que se considerarán factores sociales y económicos para el uso de la IA, y la empresa procederá en los casos en que los beneficios probables exceden los riesgos y las desventajas previsibles.

2. Evitar crear o reforzar sesgos injustos: los algoritmos y conjuntos de datos de la Inteligencia Artificial pueden reflejar, reforzar o reducir los sesgos injustos por características como raza, identidad étnica, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

3. Ser segura: esto implica desarrollar y aplicar prácticas de seguridad y protección para evitar resultados que generen riesgo de daño.

4. Actuar responsable con las personas: se brindarán oportunidades adecuadas para brindar retroalimentación y explicaciones relevantes para los usuarios.

5. Incorporar principios de privacidad: para esto se ofrecerá la oportunidad de recibir aviso y otorgar consentimiento, se alentarán las arquitecturas con garantías de privacidad y se trabajará con transparencia y controles sobre el uso de los datos.

6. Mantener estándares de excelencia científica: para Google, las herramientas de IA tienen el potencial de desbloquear nuevos ámbitos de investigación y conocimiento, por lo que planean crear estándares de excelencia científica.

7. Considerar estos principios para el uso de IA: se limitará el uso de la Inteligencia Artificial para evitar aplicaciones dañinas. Asimismo, en los proyectos contemplen esta herramienta se tomará en cuenta el propósito, la naturaleza y la resbala del mismo.

Finalmente, la empresa también anunció su compromiso de no usar la IA para crear tecnologías que pueden causar daño, desarrollar armas que provoquen lesiones a personas, implementar herramientas que recopilen o usen ilegalmente información y, en general, infringir los derechos de los usuarios.

Version Digital

Solo para suscriptores
Dale Click a la portada

 


Recibe las noticias mas relevantes de marketing y negocios
gota a gota