La inteligencia artificial ya se instaló en tareas como redacción, investigación y creación de contenidos, pero su uso también abre riesgos en seguridad, privacidad, verificación y cumplimiento que muchas empresas todavía no están mirando con suficiente atención.
La inteligencia artificial generativa dejó de ser una curiosidad de laboratorio y ya se convirtió en una herramienta cotidiana en muchas oficinas. Hoy se usa para resumir documentos, ordenar ideas, redactar correos, apoyar investigaciones, preparar presentaciones y agilizar tareas que antes tomaban bastante más tiempo. En ese escenario, el entusiasmo por sus beneficios en productividad sigue creciendo, sobre todo porque permite sacar trabajo repetitivo del camino y liberar horas para funciones más estratégicas.
Pero la otra cara de esa adopción más masiva es que muchas personas la están usando sin tener demasiado claro qué información conviene compartir, qué tipo de contenidos se deben revisar con más cuidado y qué riesgos pueden aparecer en temas como privacidad, propiedad intelectual, sesgos o cumplimiento normativo. Y ahí la conversación deja de ser solo tecnológica: también pasa por gobierno corporativo, cultura organizacional y gestión de riesgos.
El problema no sería usar IA, sino hacerlo sin criterio
Ese es justamente el eje que plantea Jimmy Ulloa, CyberSecurity Architect Andina de Coasin Logicalis, quien advierte que la IA ya no se está adoptando solo como una herramienta para agilizar procesos, sino como una especie de colaborador más dentro del trabajo diario. El punto crítico, según explica, es que en esa dinámica los usuarios muchas veces están ingresando información sensible sin dimensionar del todo sus implicancias.
Su mirada apunta a que hoy existe más urgencia por usar estas plataformas que conciencia sobre los riesgos asociados. En otras palabras, muchas organizaciones estarían empujando el uso de IA generativa por presión competitiva, eficiencia o tendencia, pero todavía sin una bajada suficientemente clara respecto de qué sí hacer, qué no hacer y cómo proteger la información que circula por estas herramientas.
A eso se suma que la conversación regulatoria también se está moviendo. Ulloa plantea que, aunque la legislación específica sobre inteligencia artificial sigue en desarrollo en varios países, ya existen estándares internacionales que orientan a las empresas en materias de gestión. Por eso, a medida que avance la regulación sobre protección de datos, las organizaciones probablemente tendrán que implementar más controles, filtros y criterios internos sobre el uso permitido de estas plataformas.
Qué debería revisar una empresa antes de subirse de lleno a la IA generativa
Uno de los puntos más razonables del planteamiento es que no basta con abrir una cuenta y empezar a pedirle cosas a un chatbot. Antes de usar IA de forma masiva, el texto propone hacerse una pregunta básica pero clave: para qué se necesita. Definir el objetivo de uso ayuda a ordenar el resto. No es lo mismo ocuparla para redactar borradores de textos generales que para analizar documentos internos, apoyar decisiones o trabajar con información delicada.
Esa definición inicial permitiría establecer un primer filtro entre el usuario y la herramienta. Qué tipo de consultas se aceptan, qué temas se restringen, qué clase de datos pueden compartirse y cuáles no deberían salir nunca del entorno protegido de la empresa. Sin esa capa mínima, el riesgo no está solo en un error técnico, sino en una mala práctica cotidiana que se vuelve costumbre.
En esa misma línea, la regla de oro sigue siendo bastante directa: no ingresar datos personales de clientes, secretos comerciales, código fuente propietario ni información financiera no pública en plataformas de IA comerciales. Cuando sí exista una necesidad de procesar información sensible, la recomendación es aplicar mecanismos de anonimización o resguardo para reducir la exposición.
Verificar, supervisar y no delegarle todo al sistema
Otra advertencia importante tiene que ver con la calidad del contenido generado. La IA puede ser rápida y útil, pero también puede inventar datos, citar mal, repetir ideas o construir respuestas muy seguras sobre bases incorrectas. Por eso, el texto insiste en algo que sigue siendo clave incluso cuando la herramienta funciona bien: el usuario sigue siendo editor, verificador y responsable del resultado final.
Eso implica revisar cifras, chequear citas, validar datos técnicos y ajustar el tono para que el contenido mantenga la voz real de la empresa. No se trataría de copiar y pegar lo que entrega la plataforma, sino de usarlo como punto de partida, no como producto terminado.
El tema se pone todavía más delicado cuando aparecen agentes de IA o sistemas con más autonomía para ejecutar tareas. Ahí la recomendación es mantener siempre control humano, límites definidos, trazabilidad de acciones y mecanismos de revisión. La lógica es simple: una empresa no debería dejar que un sistema automatizado tome decisiones críticas por sí solo sin algún nivel de supervisión humana.
Ética, sesgos y propiedad intelectual: la parte menos vistosa, pero más sensible
Más allá de la productividad, el uso de IA también abre preguntas incómodas en ética y legalidad. El texto advierte que los datos utilizados o los resultados generados pueden arrastrar sesgos de género, raza o cultura, algo especialmente delicado en áreas como recursos humanos o comunicación externa. En esos casos, el problema no es solo reputacional: también puede afectar decisiones y procesos internos relevantes.
A eso se suma la discusión sobre derechos de autor y propiedad intelectual. Cuando un contenido es generado en un nivel muy alto por IA, su protección jurídica podría ser más débil o, al menos, más discutible. Por eso, si se trata de materiales estratégicos para una empresa, la recomendación apunta a que exista una intervención humana sustancial, no solo una revisión rápida al final.
En el fondo, el mensaje es menos dramático de lo que parece, pero bastante claro: la IA generativa puede ser una herramienta valiosa, siempre que no se use como piloto automático. El desafío no estaría en frenarla, sino en integrarla con reglas, criterio y responsabilidad. Porque en la práctica, el verdadero riesgo no sería que la IA haga demasiado, sino que las personas le entreguen más poder e información de la que realmente deberían.
Te puede interesar
Ley de protección de datos en Chile: el cambio ya no sería solo legal, sino operativo
La entrada en vigencia de la Ley 21.719 en diciembre de 2026 está empezando a mover la conversación en las...
Nubity by Evertec entra al grupo elite de AWS y alcanza la categoría Premier Tier Partner
La firma especializada en soluciones cloud fue reconocida por Amazon Web Services con su categoría más alta para socios tecnológicos....
IA en estudios jurídicos: el problema menos vistoso que hoy puede pegarle directo a la rentabilidad
Mientras buena parte de la conversación sobre inteligencia artificial en el mundo legal sigue girando en torno a contratos, búsqueda...
Chile se prepara para una nueva Ley de Protección de Datos en plena economía de la IA
Desde el 1 de diciembre de 2026, Chile empezará a aplicar una nueva regla del juego para el uso de...
Trabajar en la nube tiene su recompensa: cuánto gana un especialista cloud en Chile
Los sueldos en este rubro van desde 1,8 hasta 5 millones de pesos mensuales, dependiendo del perfil y la experiencia....
La IA ya entró a casi todas las empresas, pero todavía no logra mover la caja como muchos esperaban
La adopción corporativa de inteligencia artificial sigue creciendo con fuerza, pero los resultados económicos reales todavía se ven bastante más...

Average Rating