La IA puede ser tanto una herramienta para los atacantes como para los defensores. A medida que las tecnologías se vuelven más avanzadas, pueden ser usadas para crear ataques más sofisticados y difíciles de detectar. 

Hace unos días, el organismo de regulación de datos italiano (Garante per la Protezione dei dati personali) ordenó la limitación temporal del procesamiento de datos de usuarios italianos por OpenAI, y por ende su popular herramienta ChatGPT, en relación con el inicio de una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR). Tal y como señala Check Point® Software Technologies Ltd. (NASDAQ: CHKP), un proveedor líder de soluciones de ciberseguridad a nivel mundial, este suceso tiene origen en la reciente filtración de datos de la herramienta de inteligencia artificial detectada el pasado 20 de marzo, en la que se habrían expuesto las conversaciones de los usuarios junto con información privada como datos de facturación y tarjetas de crédito parciales de los suscriptores.

Según detalla el comunicado oficial del garante italiano, actualmente ChatGPT "no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI", señalando "la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento" y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.

Si bien por el momento actualmente sólo Italia ha puesto en marcha esta ordenanza e investigación, dada la presunta base de incumplimiento del reglamento europeo para el tratamiento de datos, es posible que otros países o el propio organismo central de la Unión Europea anuncien medidas similares en los próximos días.

Los peligros y posibilidades de la inteligencia artificial

Por su parte, Paal Aaserudseter, ingeniero de seguridad de Check Point Software, ha compartido la visión de la compañía en relación con la materia de inteligencia artificial, la ciberseguridad y cómo las empresas pueden mantenerse seguras dentro de esta nueva era de innovación digital.

"El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT" asegura Aaserudseter. "El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido".

La IA ya ha demostrado su potencial para revolucionar campos como la atención médica, las finanzas o el transporte, entre muchos otros. Puede automatizar tareas tediosas, mejorar la eficiencia y proporcionar información que antes era imposible obtener, ayudando a resolver problemas complejos y tomar mejores decisiones.

Aunque es igualmente importante mantener unas expectativas realistas por el momento. Actualmente la mayor parte de IA que usamos se agrupan dentro de la Inteligencia Estrecha o "débil" (ANI), lejos de la Súper Inteligencia (ASI) cuya inteligencia superaría las capacidades humanas.

Trabajar en los riesgos de la inteligencia artificial

Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa. Esto incluye el desarrollo de mecanismos de seguridad sólidos, el establecimiento de pautas éticas y la promoción de la transparencia y la responsabilidad en el desarrollo de la IA. En este orden, todos los organismos relacionados, tales como los gobiernos, las empresas y los propios desarrolladores deben considerar los siguientes pilares fundamentales:

  • Establecer pautas éticas: debe haber pautas éticas claras para el desarrollo y uso de la IA que estén alineadas con los valores y principios sociales, como la transparencia, la responsabilidad, la privacidad y la equidad.
  • Asegurar la privacidad: las empresas y desarrolladores deben ser transparentes acerca de sus sistemas de IA, incluida la forma en que están diseñados, capacitados y probados.
  • Asegurar la privacidad: las empresas deben priorizar la protección de la privacidad de los usuarios, implementando protocolos sólidos de protección de datos.
  • Priorizar la seguridad: la seguridad debe ser una prioridad máxima y se deben implementar mecanismos para prevenir los daños causados por los sistemas de IA.
  • Fomento de la innovación: los gobiernos deben proporcionar fondos y recursos para apoyar la investigación y el desarrollo en IA, al mismo tiempo que garantizan que la innovación se equilibre con una gobernanza responsable.

 

* Polémica por premio a fotografía con IA

El artista alemán Boris Eldagsen, que provocó controversia esta semana al ganar el prestigioso premio de fotografía Sony World Photography Awards con una imagen que había sido generada con la ayuda de inteligencia artificial (IA), indicó ahora que estas tecnologías representan una amenaza "para la democracia y el fotoperiodismo". La firma organizadora del certamen emitió en estos días un comunicado crítico con el ganador. El fotógrafo alemán fue reconocido con el Sony World Photography Awards, en la categoría "Creativa", dotada con 5.000 dólares por una obra realizada con Inteligencia Artificial (IA) y luego indicó que su participación en el concurso tenía la intención de instalar un debate. "Me presenté para averiguar si los concursos están preparados para encontrarse con imágenes hechas por IA. No lo están. Gracias por seleccionar mi imagen y hacer de este un momento histórico, ya que es la primera imagen generada por IA que gana en un prestigioso concurso internacional de fotografía", escribió el propio artista.

 

Por Cinthia Pereira