Las herramientas de IA generativa plantean serios problemas de privacidad

Por: John Donegan, Enterprise Analyst de ManageEngine

Con el ChatGPT en pleno apogeo a nivel mundial, parece que este avance de la inteligencia artificial apareció de la noche a la mañana. Sin embargo, la tecnología detrás de ChatGPT no es nueva, ha existido desde que los ingenieros de Google crearon el modelo de deep learning del transformador en 2017.

Privacidad
Imagen: Pixabay

La reciente preocupación en torno a ChatGPT de OpenAI se debe, en parte, a su accesibilidad. Cualquier persona con un navegador web puede acceder a él y, con más de un millón de usuarios activos, ChatGPT se convirtió recientemente en la aplicación de consumo de más rápido crecimiento de todos los tiempos.

Además de su accesibilidad, ChatGPT está causando sensación con su impresionante comprensión del lenguaje natural. Desde un nivel alto, hay dos subtemas dentro del procesamiento del lenguaje natural: la generación del lenguaje natural (NLG) y la comprensión del lenguaje natural (NLU). NLG describe la capacidad de escritura de una computadora y NLU describe las habilidades de comprensión de lectura de una computadora.

A pesar de los impresionantes avances de ChatGPT, muchas personas están preocupadas. Esta preocupación está justificada no solo por el desplazamiento laboral, los sesgos algorítmicos, los ataques de ciberseguridad impulsados por IA y la propensión a que la desinformación se propague a gran escala. La IA generativa es particularmente problemática desde la perspectiva de la privacidad.

La necesidad de una regulación de la IA generativa
La próxima Ley de IA de la Unión Europea ha creado una nueva categoría para regular los sistemas de IA generativa. El texto se presentará al pleno del parlamento en junio para su adopción y luego comenzarán las negociaciones con los estados miembros antes de que se convierta en ley. Sin embargo, en Argentina no existe una política o ley sólida para regular la IA. En pocas palabras, por el bien de la privacidad, definitivamente vamos a necesitar una regulación generativa de IA en Argentina.

Las preocupaciones de privacidad son innumerables. Para empezar, ChatGPT extrae contenido de millones de páginas web para sus datos de entrenamiento. Entre estas páginas hay cientos de miles de millones de palabras, muchas de las cuales están protegidas por derechos de autor, son propietarias y contienen datos personales. Incluso si estos datos personales están disponibles públicamente (por ejemplo, un número de teléfono en un CV digital), aún existe el problema de la integridad contextual, un punto de referencia de privacidad cada vez más importante en la Unión Europea que dice que los datos personales de una persona no deben revelarse fuera de su contexto inicial.

Además, hasta hace poco, OpenAI incorporaba automáticamente el contenido de avisos de todos los usuarios en su corpus de datos de capacitación de ChatGPT. A partir del 1 de marzo, OpenAI ya no usa los datos enviados a través de su API para el entrenamiento de modelos; sin embargo los usuarios aún pueden optar por proporcionar sus datos a OpenAI. 

Dicho esto, estas mejoras en las políticas de privacidad de ChatGPT plantean otras preguntas: ¿qué sucede si un usuario se registra y luego carga la información personal de alguien en las indicaciones? ¿Podemos pedirle a OpenAI que elimine nuestra información personal? ¿Podemos pedirle a OpenAI que corrija la información personal inexacta que ha recopilado? A menos que vivamos en California o Europa, la respuesta probablemente sea “no”.

Si bien la política de privacidad de OpenAI está cambiando, es importante recordar que esta es una entidad con fines de lucro. OpenAI, como Meta, Google y otros en la carrera armamentista generativa de IA, eventualmente necesitará ganar dinero de alguna manera, y eso muy bien puede provenir de la venta de datos de usuarios a terceros.

Incluso la Jefa de Tecnología de OpenAI, Mira Murati, cree que la tecnología debe ser regulada. Cuando se le preguntó si creía que la intervención del gobierno era apropiada, Murati dijo, “Somos un pequeño grupo de personas y necesitamos muchos más aportes en este sistema, y muchos más aportes que vayan más allá de las tecnologías – definitivamente reguladores y gobiernos y todos los demás.”

El avance acelerado de la IA generativa está a punto de invadir nuestra privacidad. Sin duda, la IA generativa plantea otras amenazas de las que hablaremos en el futuro, incluido el desplazamiento laboral, los ataques cibernéticos impulsados por IA y la proliferación de información errónea convincente. Sin embargo, por ahora, esperamos que los reguladores, legisladores y trabajadores tecnológicos sean conscientes de los innumerables peligros para la privacidad que plantea la IA generativa.
 

Version Digital

Solo para suscriptores
Dale Click a la portada

 


Recibe las noticias mas relevantes de marketing y negocios
gota a gota