Home Tecnología La encuesta principal encuentra que la mayoría de las personas usan IA...

La encuesta principal encuentra que la mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad lo admite de inapropiadamente

1
0

Crédito: dominio público Unsplash/CC0

¿Alguna vez ha usado ChatGPT para redactar un correo electrónico de trabajo? ¿Quizás resumir un informe, investigar un tema o analizar datos en una hoja de cálculo? Si es así, ciertamente no estás solo.

Las herramientas de inteligencia artificial (IA) están transformando rápidamente el mundo del trabajo. Publicado hoy, nuestro estudio global de más de 32,000 trabajadores de 47 países muestra que el 58% de los empleados usan intencionalmente IA en el trabajo, con un tercio que lo usa semanalmente o diariamente.

La mayoría de los empleados que lo usan dicen que han ganado alguna productividad real y beneficios de rendimiento al adoptar herramientas de IA.

Sin embargo, un número preocupante está utilizando AI de manera muy arriesgada, como cargar información confidencial en herramientas públicas, depender de las respuestas de IA sin verificarlas y ocultar su uso.

Existe una necesidad urgente de políticas, capacitación y gobernanza sobre el uso responsable de la IA, para garantizar que mejore, no socave, cómo se realiza el trabajo.

Nuestra investigación

Encuestamos a 32,352 empleados en 47 países, cubriendo todas las regiones geográficas globales y grupos ocupacionales.

La mayoría de los empleados informan beneficios de desempeño de la adopción de IA en el trabajo. Estos incluyen mejoras en:

Eficiencia (67%) Acceso a la información (61%) Innovación (59%) Calidad laboral (58%).

Estos hallazgos hacen eco de la investigación previa que demuestra la IA puede impulsar las ganancias de productividad para los empleados y las organizaciones.

Encontramos que las herramientas de IA generativas de uso general, como ChatGPT, son, con mucho, las más utilizadas. Alrededor del 70% de los empleados dependen de herramientas públicas gratuitas, en lugar de soluciones de IA proporcionadas por su empleador (42%).

Sin embargo, casi la mitad de los empleados que encuestamos que usan AI dicen que lo han hecho de manera que podría considerarse inapropiado (47%) y aún más (63%) han visto a otros empleados que usan IA de manera inapropiada.

Información confidencial

Una preocupación clave que rodea las herramientas de IA en el lugar de trabajo es el manejo de la información confidencial de la empresa, como la información financiera, de ventas o del cliente.

Casi la mitad (48%) de los empleados han cargado la información confidencial de la compañía o el cliente en las herramientas de IA generativas públicas, y el 44% admite haber utilizado la IA en el trabajo de manera que va en contra de las políticas organizacionales.

Esto se alinea con otras investigaciones que muestran el 27% del contenido puesto en las herramientas de IA por parte de los empleados es sensible.

Verifique su respuesta

Descubrimos que el uso complaciente de la IA también está muy extendido, y el 66% de los encuestados dicen que se han basado en la producción de IA sin evaluarla. No es sorprendente que la mayoría (56%) haya cometido errores en su trabajo debido a la IA.

Los empleados más jóvenes (de 18 a 34 años) tienen más probabilidades de participar en un uso inapropiado y complaciente que los empleados mayores (de 35 años o más).

Esto conlleva graves riesgos para organizaciones y empleados. Tales errores ya han llevado a casos bien documentados de pérdida financiera, daños a la reputación y violaciones de la privacidad.

Alrededor de un tercio (35%) de los empleados dicen que el uso de herramientas de IA en su lugar de trabajo ha aumentado los riesgos de privacidad y cumplimiento.

Crédito: Gráfico: The Conversationsurce: Gillespie, N., Lockey, S., Ward, T., MacDade, A. y Hassed, G. (2025). Trust, actitudes y uso de inteligencia artificial: un estudio global, 2025. DOI 10.26188/28822919

Uso de ‘Shadow’ ai

Cuando los empleados no son transparentes sobre cómo usan la IA, los riesgos se vuelven aún más difíciles de manejar.

Descubrimos que la mayoría de los empleados han evitado revelar cuándo usan IA (61%), presentó contenido generado por IA como suyo (55%) y usaron herramientas de IA sin saber si está permitido (66%).

Este uso invisible o de “AI en la sombra” no solo exacerbe los riesgos, sino que también obstaculiza severamente la capacidad de una organización para detectar, administrar y mitigar los riesgos.

La falta de capacitación, orientación y gobernanza parece estar alimentando este uso complaciente. A pesar de su prevalencia, solo un tercio de los empleados (34%) dicen que su organización tiene una política que guía el uso de herramientas generativas de IA, y el 6% dice que su organización lo prohíbe.

La presión para adoptar la IA también puede alimentar el uso complaciente, con la mitad de los empleados que temen que se queden atrás si no lo hacen.

Mejor alfabetización y supervisión

Colectivamente, nuestros hallazgos revelan una brecha significativa en el gobierno de las herramientas de IA y una necesidad urgente de que las organizaciones guíen y administren cómo los usan los empleados en su trabajo diario. Abordar esto requerirá un enfoque proactivo y deliberado.

Invertir en capacitación de IA responsable y desarrollar la alfabetización de IA de los empleados es clave. Nuestro modelado muestra la alfabetización de IA autoinformada, incluida la capacitación, el conocimiento y la eficacia, predicha no solo si los empleados adoptan herramientas de IA sino también si se comprometen críticamente con ellos.

Esto incluye qué tan bien verifican la salida de las herramientas y consideran sus limitaciones antes de tomar decisiones.

Descubrimos que la alfabetización de IA también está asociada con una mayor confianza en el uso de la IA en el trabajo y más beneficios de rendimiento de su uso.

A pesar de esto, menos de la mitad de los empleados (47%) informan haber recibido capacitación de IA o educación relacionada.

Las organizaciones también deben establecer políticas, directrices y barandillas claras, sistemas de responsabilidad y supervisión, y medidas de privacidad y seguridad de datos.

Hay muchos recursos para ayudar a las organizaciones a desarrollar sistemas de gobierno de IA robustos y apoyar el uso responsable de la IA.

La cultura correcta

Además de esto, es crucial crear un ambiente de trabajo psicológicamente seguro, donde los empleados se sienten cómodos para compartir cómo y cuándo están utilizando herramientas de IA.

Los beneficios de tal cultura van más allá de una mejor supervisión y gestión de riesgos. También es fundamental para desarrollar una cultura de aprendizaje y experimentación compartidos que respalde la difusión responsable del uso e innovación de la IA.

La IA tiene el potencial de mejorar la forma en que trabajamos. Pero se necesita una fuerza laboral con litera de IA, una gobernanza sólida y una guía clara, y una cultura que respalda el uso seguro, transparente y responsable. Sin estos elementos, la IA se convierte en otra responsabilidad no administrada.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: la encuesta principal encuentra que la mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad lo admite hacerlo de manera inapropiada (2025, 29 de abril) recuperó el 29 de abril de 2025 de https://techxplore.com/news/2025-04-major-survey-people-ai-regularly.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.