Los riesgos de adoptar la inteligencia artificial en las empresas
- Suárez Consultoría
- hace 17 horas
- 4 Min. de lectura
Aunque son muchas las oportunidades que brinda la inteligencia artificial en entornos empresariales, no hay que desconocer que la misma también puede implicar riesgos y desafíos.

El uso de la inteligencia artificial también puede implicar problemas para las empresas. Foto: Pixabay
La inteligencia artificial generativa ha marcado un boom tecnológico en los últimos años. Tal ha sido su impacto, que hay quienes comparan su poder de transformación con el de la invención y uso del internet, así como una nueva revolución industrial.
En entornos empresariales, la inteligencia artificial ha demostrado ser altamente efectiva en la automatización de procesos, mejoras en la atención al cliente, gestión de recursos humanos, análisis grandes bases de datos, apoyo en procesos creativos y, en suma, ventajas competitivas.
Un estudio adelantado por la firma McKinsey identificó que la inteligencia artificial generativa puede llegar a tener más de 60 casos de uso en entornos empresariales, los cuales podrían aportar beneficios económicos para estas organizaciones de entre US$2,6 billones y US$4,4 billones al año.
En muchos casos, no emplear la inteligencia artificial es dejar de ser competitivo. Sin embargo, no hay que caer en el error de emplear un uso indiscriminado, pues la misma también implica riesgos y desafíos.
Según lo explicado por la firma de seguridad informática, ESET, estos procesos de digitalización masiva pueden derivar en afectaciones a la seguridad de las empresas, así como en la privacidad de su información.
“Cada vez más las empresas se ven en la necesidad de implementar estrategias de mitigación de riesgos para evitar consecuencias legales, económicas y reputacionales derivadas de un uso indebido o poco seguro de esta tecnología”, señala, al detallar cada uno de los aspectos en los que se debería prestar atención.
Recolección y almacenamiento de datos personales
El corazón de los modelos de inteligencia artificial depende de los datos, enormes cantidades de datos. Estos sirven para entrenar a las IA, para que así pueda brindar respuestas o realizar las tareas que se le piden.
Estos datos pueden provenir de fuentes como los clientes o usuarios de las compañías, redes sociales, archivos o documentos públicos, historiales de búsqueda, transacciones en línea y hasta de dispositivos IoT.
El problema es que muchas veces estas robustas bases de datos pueden contener información personal, sensible o confidencial. Más allá del tratamiento legal de estos (en donde en muchos casos se necesita la autorización de los titulares de esos datos), la sola existencia de esos repositorios los vuelve atractivos para los cibercriminales, quienes podrían vulnerar la seguridad informática de la compañía y acceder a los mismos, obviamente con fines malintencionados.
“Se recomienda a las empresas adoptar diversas medidas de seguridad, como la anonimización y pseudonimización de datos. Por otro lado, apegarse a normativas de protección de datos como las leyes locales o el GDPR les dará una garantía de que su organización cumple con estándares mínimos que le permitirán avanzar hacia infraestructuras más robustas. No deben dejarse de lado las medidas básicas como el cifrado, las contraseñas robustas, los dobles factores de autenticación, la concientización de los empleados e implementación de soluciones de seguridad como antimalware, así como un enfoque proactivo de búsqueda de vulnerabilidades y amenazas”, señala ESET.
Abuso de la información
Este problema se presenta cuando a los datos se les da un uso contrario para el que fueron suministrados y aceptados por sus titulares (las personas que lo suministran). Los casos de abuso de información se pueden masificar, pues los atacantes ahora tienen más posibilidades para acceder a los mismos.
Más allá de esto, también se han conocido casos de empresas que lucran con la información de sus usuarios, pues la venden a terceros (muchas veces sin el consentimiento de los dueños de esos datos), lo que plantea riesgos en materia de transparencia y seguridad.
También se puede entrenar a los modelos de inteligencia artificial para reconocer a los usuarios, hacer un perfilamiento de ellos e influir en sus decisiones de compra, lo cual plantea dilemas éticos y vulneraciones a los derechos del consumidor.
“En estos casos, nos encontramos usualmente frente a situaciones de abuso de información que no solo se limitan a cuestiones monetarias poco éticas, sino que pueden conllevar la perpetuación de sesgos y discriminación algorítmica, un problema que no es nuevo en este ámbito.Para evitar esto, es fundamental que las empresas se apeguen a principios de uso ético de la IA, además de implementar auditorías de transparencia y supervisión de los modelos. Esto con el fin de reducir al máximo los riesgos y potenciales daños”, asegura ESET.
Ciberseguridad
La inteligencia artificial puede usarse para fines benéficos, pero también para fines malintencionados.
Se ha encontrado que la IA puede ser empleada para crear cibermenazas, a tal punto de desarrollo que incluso estas se hacen inteligentes para evadir los controles de seguridad adoptados en las empresas.
Es por esto que también se recomienda adoptar sistemas de defensa soportados por inteligencia artificial, los cuales son capaces de reconocer comportamientos inusuales que representan un riesgo para las compañías.
Empresas como ESET coinciden en que este tipo de tecnologías son eficientes (pero no 100 %). De allí la importancia que tiene la inteligencia humana por sobre la artificial, pues capacitar a los equipos de trabajo sobre prácticas de ciberseguridad sigue siendo una de las mejores defensas ante estas amenazas.
Para evitar afectaciones a los clientes o usuarios de las empresas, así como para las propias empresas (impactos reputacionales, robo de información, demandas…) ESET recomienda atender estas recomendaciones:
Seguridad desde el diseño: Implementar “security-by-design”, que implica que todas las etapas del desarrollo de los modelos de IA se realicen de forma segura y prioritaria.
Evaluación de seguridad constante: Realizar auditorías y análisis de vulnerabilidades de forma proactiva para identificar y mitigar posibles riesgos antes de que sean explotados por cibercriminales.
Uso de IA para ciberseguridad: Aprovechar machine learning y otros modelos de IA especializados en ciberseguridad para detectar amenazas y responder automáticamente a incidentes.
Implementar autenticación multifactor (MFA), contraseñas robustas y políticas de acceso basadas en roles para restringir el acceso a datos sensibles.
Capacitación y concientización: Educar a los empleados sobre buenas prácticas de seguridad y el manejo responsable de datos en sistemas de IA.
Contar con soluciones de seguridad como antimalware y antiphishing capaces de realizar detecciones en tiempo real.
Garantizar que los modelos de IA cumplan con regulaciones internacionales y nacionales pertinentes, así como con los principios éticos de transparencia, explicabilidad, equidad y responsabilidad.