Tres grandes barreras frenan la adopción de inteligencia artificial en las empresas
- Suárez Consultoría

- 1 oct
- 4 Min. de lectura
Según una investigación, casi la mitad de las organizaciones afirma que uno de los mayores obstáculos está en contar con bases de datos fragmentadas.

Inteligencia Artificial Foto: EFE
La inteligencia artificial (IA) generativa continúa transformando las dinámicas de las empresas en todo el mundo, pero su implementación no está exenta de dificultades. Un nuevo estudio de SAS, firma global en análisis de datos e inteligencia artificial, realizado por IDC bajo el título ‘Data and AI Impact Report: The Trust Imperative’, identificó los tres grandes retos que están frenando el éxito de la IA en las organizaciones: infraestructuras de datos débiles, falta de gobernanza y escasez de talento especializado.
Según la investigación, casi la mitad de las organizaciones (49%) reconoce que uno de los mayores obstáculos está en contar con bases de datos fragmentadas o entornos en la nube poco optimizados, lo que limita la capacidad de alimentar los modelos de IA de manera eficiente.
A este desafío le siguen la ausencia de procesos claros de gobernanza de datos (44%) y la falta de competencias especializadas en inteligencia artificial (41%), dos factores que comprometen tanto la calidad de los resultados como la confianza en las aplicaciones de esta tecnología.
La confianza en la IA: entre la percepción y la realidad Uno de los hallazgos más llamativos del informe es la diferencia entre la confianza declarada en la IA y las medidas reales que se toman para garantizarla. Aunque el 78% de las organizaciones afirma confiar en la IA, apenas el 40% está invirtiendo en hacer sus sistemas verdaderamente confiables mediante marcos de gobernanza, explicabilidad y salvaguardas éticas.
La paradoja se hace aún más evidente en el caso de la IA generativa, que ha ganado una rápida popularidad gracias a herramientas como ChatGPT. El estudio señala que esta modalidad es percibida como 200% más confiable que la IA tradicional, pese a que el machine learning, más consolidado, explicable y estable, ofrece mayores garantías técnicas.
“Nuestra investigación muestra una contradicción, las formas de IA con interacción humana y familiaridad social generan mayor confianza, independientemente de su fiabilidad real”, explicó Kathy Lange, directora de investigación en IA y Automatización en IDC. “La pregunta es si esa confianza está justificada o si los líderes están dejando de lado las salvaguardas necesarias para esta tecnología emergente”. Ética, privacidad y transparencia
Aunque los encuestados declararon tener plena confianza en la IA generativa (48%) y en los agentes de IA (33%), también expresaron inquietudes significativas en torno a la privacidad de los datos (62%), la transparencia y explicabilidad de los modelos (57%) y el uso ético de la tecnología (56%). Un aspecto emergente es la IA cuántica, todavía en una fase incipiente de desarrollo, pero que ya despierta confianza en un sector del mercado. Un 26% de los responsables encuestados asegura tener plena confianza en esta tecnología, a pesar de que aún no existen casos de uso generalizados. El estudio diferencia entre empresas líderes en el uso de IA confiable y aquellas que todavía no han dado pasos firmes en esta materia. Los líderes invierten en prácticas sólidas de gobernanza, explicabilidad y protección ética, y como resultado, tienen 1,6 veces más probabilidades de duplicar el retorno de inversión (ROI) en sus proyectos de inteligencia artificial. Sin embargo, estas compañías siguen siendo minoría. Menos del 10% de las organizaciones ha desarrollado políticas de IA responsable, y solo un 2% ha establecido un marco robusto de gobernanza para guiar sus implementaciones. “Por el bien de la sociedad, las organizaciones y los empleados, la confianza en la IA es imprescindible. “Para lograrlo, debemos incrementar la tasa de éxito de las implementaciones, revisar con espíritu crítico los resultados y formar a los equipos humanos para trabajar con estas herramientas de manera consciente”, afirmó Bryan Harris, director de tecnología de SAS. El informe subraya que la IA es tan buena como los datos que la alimentan. Sin bases sólidas, diversas y gobernadas, los proyectos están destinados a fracasar. De hecho, el 58% de las organizaciones mencionó que su mayor dificultad es acceder a fuentes de datos relevantes, mientras que el 49% señaló la privacidad y el cumplimiento regulatorio como un obstáculo importante, y un 46% destacó problemas con la calidad de los datos.
En un escenario donde los sistemas de IA son cada vez más autónomos y se integran a procesos críticos, garantizar la calidad de los datos se convierte en una prioridad estratégica para maximizar beneficios, como productividad y rentabilidad, y mitigar riesgos.
El estudio también confirma que la IA generativa está superando rápidamente a la tradicional en términos de adopción. Mientras que el 81% de las organizaciones ya utiliza o planea utilizar IA generativa, solo el 66% lo hace con IA tradicional. Esta acelerada implementación ha traído consigo nuevos riesgos éticos y de seguridad, que requieren de una respuesta más rápida y sólida por parte de las compañías.
La conclusión del reporte es clara: las organizaciones que prioricen prácticas responsables y de confianza en sus proyectos de IA no solo estarán mejor preparadas para gestionar riesgos regulatorios y reputacionales, sino que también estarán en posición de maximizar su retorno de inversión y acelerar su innovación de manera sostenible.
JOHANA LORDUY
Periodista de PORTAFOLIO Fuente: PORTAFOLIO https://www.portafolio.co/tecnologia/tres-grandes-barreras-frenan-la-adopcion-de-inteligencia-artificial-en-las-empresas-641089











Comentarios