top of page
  • Whatsapp
  • Instagram
  • Facebook
  • LinkedIn
  • TikTok
  • X
  • Youtube

Tres grandes barreras frenan la adopción de inteligencia artificial en las empresas

Según una investigación, casi la mitad de las organizaciones afirma que uno de los mayores obstÔculos estÔ en contar con bases de datos fragmentadas.

ree

Inteligencia Artificial Foto: EFE La inteligencia artificial (IA) generativa continĆŗa transformando las dinĆ”micas de las empresas en todo el mundo, pero su implementación no estĆ” exenta de dificultades. Un nuevo estudio de SAS, firma global en anĆ”lisis de datos e inteligencia artificial, realizado por IDC bajo el tĆ­tulo ā€˜Data and AI Impact Report: The Trust Imperative’, identificó los tres grandes retos que estĆ”n frenando el Ć©xito de la IA en las organizaciones: infraestructuras de datos dĆ©biles, falta de gobernanza y escasez de talento especializado. SegĆŗn la investigación, casi la mitad de las organizaciones (49%) reconoce que uno de los mayores obstĆ”culos estĆ” en contar con bases de datos fragmentadas o entornos en la nube poco optimizados, lo que limita la capacidad de alimentar los modelos de IA de manera eficiente. A este desafĆ­o le siguen la ausencia de procesos claros de gobernanza de datos (44%) y la falta de competencias especializadas en inteligencia artificial (41%), dos factores que comprometen tanto la calidad de los resultados como la confianza en las aplicaciones de esta tecnologĆ­a.

La confianza en la IA: entre la percepción y la realidad Uno de los hallazgos mÔs llamativos del informe es la diferencia entre la confianza declarada en la IA y las medidas reales que se toman para garantizarla. Aunque el 78% de las organizaciones afirma confiar en la IA, apenas el 40% estÔ invirtiendo en hacer sus sistemas verdaderamente confiables mediante marcos de gobernanza, explicabilidad y salvaguardas éticas.


La paradoja se hace aún mÔs evidente en el caso de la IA generativa, que ha ganado una rÔpida popularidad gracias a herramientas como ChatGPT. El estudio señala que esta modalidad es percibida como 200% mÔs confiable que la IA tradicional, pese a que el machine learning, mÔs consolidado, explicable y estable, ofrece mayores garantías técnicas.


ā€œNuestra investigación muestra una contradicción, las formas de IA con interacción humana y familiaridad social generan mayor confianza, independientemente de su fiabilidad realā€, explicó Kathy Lange, directora de investigación en IA y Automatización en IDC. ā€œLa pregunta es si esa confianza estĆ” justificada o si los lĆ­deres estĆ”n dejando de lado las salvaguardas necesarias para esta tecnologĆ­a emergenteā€. Ɖtica, privacidad y transparencia

Aunque los encuestados declararon tener plena confianza en la IA generativa (48%) y en los agentes de IA (33%), tambiĆ©n expresaron inquietudes significativas en torno a la privacidad de los datos (62%), la transparencia y explicabilidad de los modelos (57%) y el uso Ć©tico de la tecnologĆ­a (56%). Un aspecto emergente es la IA cuĆ”ntica, todavĆ­a en una fase incipiente de desarrollo, pero que ya despierta confianza en un sector del mercado. Un 26% de los responsables encuestados asegura tener plena confianza en esta tecnologĆ­a, a pesar de que aĆŗn no existen casos de uso generalizados. El estudio diferencia entre empresas lĆ­deres en el uso de IA confiable y aquellas que todavĆ­a no han dado pasos firmes en esta materia. Los lĆ­deres invierten en prĆ”cticas sólidas de gobernanza, explicabilidad y protección Ć©tica, y como resultado, tienen 1,6 veces mĆ”s probabilidades de duplicar el retorno de inversión (ROI) en sus proyectos de inteligencia artificial. Sin embargo, estas compaƱƭas siguen siendo minorĆ­a. Menos del 10% de las organizaciones ha desarrollado polĆ­ticas de IA responsable, y solo un 2% ha establecido un marco robusto de gobernanza para guiar sus implementaciones. ā€œPor el bien de la sociedad, las organizaciones y los empleados, la confianza en la IA es imprescindible.Ā  ā€œPara lograrlo, debemos incrementar la tasa de Ć©xito de las implementaciones, revisar con espĆ­ritu crĆ­tico los resultados y formar a los equipos humanos para trabajar con estas herramientas de manera conscienteā€,Ā afirmó Bryan Harris, director de tecnologĆ­a de SAS. El informe subraya que la IA es tan buena como los datos que la alimentan. Sin bases sólidas, diversas y gobernadas, los proyectos estĆ”n destinados a fracasar. De hecho, el 58% de las organizaciones mencionó que su mayor dificultad es acceder a fuentes de datos relevantes, mientras que el 49% seƱaló la privacidad y el cumplimiento regulatorio como un obstĆ”culo importante, y un 46% destacó problemas con la calidad de los datos.


En un escenario donde los sistemas de IA son cada vez mÔs autónomos y se integran a procesos críticos, garantizar la calidad de los datos se convierte en una prioridad estratégica para maximizar beneficios, como productividad y rentabilidad, y mitigar riesgos.


El estudio también confirma que la IA generativa estÔ superando rÔpidamente a la tradicional en términos de adopción. Mientras que el 81% de las organizaciones ya utiliza o planea utilizar IA generativa, solo el 66% lo hace con IA tradicional. Esta acelerada implementación ha traído consigo nuevos riesgos éticos y de seguridad, que requieren de una respuesta mÔs rÔpida y sólida por parte de las compañías.


La conclusión del reporte es clara: las organizaciones que prioricen prÔcticas responsables y de confianza en sus proyectos de IA no solo estarÔn mejor preparadas para gestionar riesgos regulatorios y reputacionales, sino que también estarÔn en posición de maximizar su retorno de inversión y acelerar su innovación de manera sostenible.



JOHANA LORDUYĀ 

bottom of page