Read Time:4 Minute

La inteligencia artificial ya se instaló en tareas como redacción, investigación y creación de contenidos, pero su uso también abre riesgos en seguridad, privacidad, verificación y cumplimiento que muchas empresas todavía no están mirando con suficiente atención.

La inteligencia artificial generativa dejó de ser una curiosidad de laboratorio y ya se convirtió en una herramienta cotidiana en muchas oficinas. Hoy se usa para resumir documentos, ordenar ideas, redactar correos, apoyar investigaciones, preparar presentaciones y agilizar tareas que antes tomaban bastante más tiempo. En ese escenario, el entusiasmo por sus beneficios en productividad sigue creciendo, sobre todo porque permite sacar trabajo repetitivo del camino y liberar horas para funciones más estratégicas.

Pero la otra cara de esa adopción más masiva es que muchas personas la están usando sin tener demasiado claro qué información conviene compartir, qué tipo de contenidos se deben revisar con más cuidado y qué riesgos pueden aparecer en temas como privacidad, propiedad intelectual, sesgos o cumplimiento normativo. Y ahí la conversación deja de ser solo tecnológica: también pasa por gobierno corporativo, cultura organizacional y gestión de riesgos.

El problema no sería usar IA, sino hacerlo sin criterio

Ese es justamente el eje que plantea Jimmy Ulloa, CyberSecurity Architect Andina de Coasin Logicalis, quien advierte que la IA ya no se está adoptando solo como una herramienta para agilizar procesos, sino como una especie de colaborador más dentro del trabajo diario. El punto crítico, según explica, es que en esa dinámica los usuarios muchas veces están ingresando información sensible sin dimensionar del todo sus implicancias.

Su mirada apunta a que hoy existe más urgencia por usar estas plataformas que conciencia sobre los riesgos asociados. En otras palabras, muchas organizaciones estarían empujando el uso de IA generativa por presión competitiva, eficiencia o tendencia, pero todavía sin una bajada suficientemente clara respecto de qué sí hacer, qué no hacer y cómo proteger la información que circula por estas herramientas.

A eso se suma que la conversación regulatoria también se está moviendo. Ulloa plantea que, aunque la legislación específica sobre inteligencia artificial sigue en desarrollo en varios países, ya existen estándares internacionales que orientan a las empresas en materias de gestión. Por eso, a medida que avance la regulación sobre protección de datos, las organizaciones probablemente tendrán que implementar más controles, filtros y criterios internos sobre el uso permitido de estas plataformas.

Te puede interesar  Chile se prepara para una nueva Ley de Protección de Datos en plena economía de la IA

Qué debería revisar una empresa antes de subirse de lleno a la IA generativa

Uno de los puntos más razonables del planteamiento es que no basta con abrir una cuenta y empezar a pedirle cosas a un chatbot. Antes de usar IA de forma masiva, el texto propone hacerse una pregunta básica pero clave: para qué se necesita. Definir el objetivo de uso ayuda a ordenar el resto. No es lo mismo ocuparla para redactar borradores de textos generales que para analizar documentos internos, apoyar decisiones o trabajar con información delicada.

Esa definición inicial permitiría establecer un primer filtro entre el usuario y la herramienta. Qué tipo de consultas se aceptan, qué temas se restringen, qué clase de datos pueden compartirse y cuáles no deberían salir nunca del entorno protegido de la empresa. Sin esa capa mínima, el riesgo no está solo en un error técnico, sino en una mala práctica cotidiana que se vuelve costumbre.

En esa misma línea, la regla de oro sigue siendo bastante directa: no ingresar datos personales de clientes, secretos comerciales, código fuente propietario ni información financiera no pública en plataformas de IA comerciales. Cuando sí exista una necesidad de procesar información sensible, la recomendación es aplicar mecanismos de anonimización o resguardo para reducir la exposición.

Verificar, supervisar y no delegarle todo al sistema

Otra advertencia importante tiene que ver con la calidad del contenido generado. La IA puede ser rápida y útil, pero también puede inventar datos, citar mal, repetir ideas o construir respuestas muy seguras sobre bases incorrectas. Por eso, el texto insiste en algo que sigue siendo clave incluso cuando la herramienta funciona bien: el usuario sigue siendo editor, verificador y responsable del resultado final.

Te puede interesar  Cambio de hora en Chile: cinco ajustes en tu computador que pueden evitar errores y salvarte de un lunes desordenado

Eso implica revisar cifras, chequear citas, validar datos técnicos y ajustar el tono para que el contenido mantenga la voz real de la empresa. No se trataría de copiar y pegar lo que entrega la plataforma, sino de usarlo como punto de partida, no como producto terminado.

El tema se pone todavía más delicado cuando aparecen agentes de IA o sistemas con más autonomía para ejecutar tareas. Ahí la recomendación es mantener siempre control humano, límites definidos, trazabilidad de acciones y mecanismos de revisión. La lógica es simple: una empresa no debería dejar que un sistema automatizado tome decisiones críticas por sí solo sin algún nivel de supervisión humana.

Ética, sesgos y propiedad intelectual: la parte menos vistosa, pero más sensible

Más allá de la productividad, el uso de IA también abre preguntas incómodas en ética y legalidad. El texto advierte que los datos utilizados o los resultados generados pueden arrastrar sesgos de género, raza o cultura, algo especialmente delicado en áreas como recursos humanos o comunicación externa. En esos casos, el problema no es solo reputacional: también puede afectar decisiones y procesos internos relevantes.

A eso se suma la discusión sobre derechos de autor y propiedad intelectual. Cuando un contenido es generado en un nivel muy alto por IA, su protección jurídica podría ser más débil o, al menos, más discutible. Por eso, si se trata de materiales estratégicos para una empresa, la recomendación apunta a que exista una intervención humana sustancial, no solo una revisión rápida al final.

En el fondo, el mensaje es menos dramático de lo que parece, pero bastante claro: la IA generativa puede ser una herramienta valiosa, siempre que no se use como piloto automático. El desafío no estaría en frenarla, sino en integrarla con reglas, criterio y responsabilidad. Porque en la práctica, el verdadero riesgo no sería que la IA haga demasiado, sino que las personas le entreguen más poder e información de la que realmente deberían.

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Un estudio en España evaluará si videojuegos comerciales pueden aportar en personas mayores con deterioro cognitivo. Previous post Videojuegos y deterioro cognitivo: un estudio quiere medir si realmente pueden ayudar
El alza de la bencina impulsa el interés por autos de bajo consumo en Chile y cambia la forma de evaluar ahorro, mantención y repuestos. Next post Autos de bajo consumo ganan terreno: por qué el alza de la bencina está cambiando la decisión de compra
Ads Blocker Image Powered by Code Help Pro

¡Ayúdanos!

Los anuncios nos permiten mantener este proyecto vivo. Ayúdanos desactivando tu bloqueador de anuncios y danos una mano.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock