Home Tecnología Muchos australianos usan secretamente IA en el trabajo, según un nuevo informe....

Muchos australianos usan secretamente IA en el trabajo, según un nuevo informe. Las reglas más claras podrían reducir ‘Shadow Ai’

13
0

Crédito: la conversación

Los trabajadores australianos usan en secreto herramientas generativas de inteligencia artificial (Gen AI), sin conocimiento o aprobación de su jefe, un nuevo informe espectáculos.

La “Transición de nuestra Generación AI: implicaciones para el trabajo y las habilidades” informe De los empleos y habilidades del gobierno federal, Australia señala varios estudios, que se muestran entre 21% a 27% de los trabajadores (particularmente en las industrias de cuello blanco) usan IA a espaldas de su gerente.

¿Por qué algunas personas todavía lo ocultan? El informe dice que la gente comúnmente dijo que:

“Siente que usar la IA está haciendo trampa” tiene el “miedo a ser visto como perezoso” y un “miedo a ser visto como menos competente”.

Lo más sorprendente es que este aumento en el “uso de sombras” no aprobado de la IA está sucediendo incluso como el tesorero federal y la comisión de productividad insta a los australianos a aprovechar al máximo la IA.

Los nuevos resultados del informe destacan las brechas en la forma en que gobernamos el uso de la IA en el trabajo, dejando a los trabajadores y empleadores en la oscuridad sobre lo correcto.

Como he visto en mi trabajo, tanto como investigador legal que analiza la gobernanza de la IA y como abogado en ejercicio, hay algunos trabajos en los que las reglas para usar la IA en el trabajo cambian tan pronto como cruza una frontera estatal dentro de Australia.

Riesgos y beneficios del ‘uso de sombras’ de ai

Los trabajos y habilidades de 124 páginas Australia informe Cubre muchos problemas, incluida la adopción temprana y desigual de la IA, cómo la IA podría ayudar en el trabajo futuro y cómo podría afectar la disponibilidad del trabajo.

Entre sus hallazgos más interesantes se referían a los trabajadores que usan IA en secreto, que no siempre es algo malo. El informe encontró que aquellos que usan IA en las sombras a veces son líderes ocultos, “impulsando la innovación de abajo hacia arriba en algunos sectores”.

Sin embargo, también viene con riesgos graves.

El “‘uso de la sombra’ dirigido por los trabajadores es una parte importante de la adopción hasta la fecha. Una parte significativa de los empleados está utilizando herramientas de Gen AI de forma independiente, a menudo sin supervisión del empleador, lo que indica el entusiasmo de base pero también aumenta la gobernanza y las preocupaciones de riesgos”.

El informe recomienda aprovechar esta adopción y experimentación temprana, pero advierte:

“En ausencia de una gobernanza clara, el uso de la sombra puede proliferar. Esta experimentación informal, aunque una fuente de innovación, también puede fragmentar prácticas que son difíciles de escalar o integrar más tarde. También aumenta los riesgos en torno a la seguridad de los datos, la responsabilidad y el cumplimiento, y los resultados inconsistentes”.

Riesgos del mundo real por fallas de IA

El informe exige la administración nacional de la transición de Gen AI de Australia a través de un marco nacional coordinado, capacidad centralizada y un impulso de toda la población en las habilidades digitales y de IA.

Esto refleja mi propia investigación, que muestra el marco legal de IA de Australia tiene puntos ciegosy nuestros sistemas de conocimiento, desde la ley hasta informes legalesNecesita un replanteamiento fundamental.

Incluso en algunas profesiones donde han surgido reglas más claras, con demasiada frecuencia viene después de fallas graves.

En Victoria, un trabajador de protección infantil ingresó detalles delicados en ChatGPT sobre un caso judicial sobre delitos sexuales contra un niño pequeño. El Comisionado de Información Victoriana tiene prohibido El personal de protección infantil del estado de usar herramientas de IA hasta noviembre de 2026.

También se ha encontrado que los abogados usan mal ai, de la Estados Unidos y Reino Unido a Australia.

Otro ejemplo más, información engañosa creada por AI para un caso de asesinato de Melbourne, fue informó justo ayer.

Pero incluso para los abogados, las reglas son irregulares y difieren de un estado a otro. (El Tribunal federal está entre los que aún desarrollan sus reglas).

Por ejemplo, un Abogado en Nueva Gales del Sur ahora es claramente no se le permite usar AI para generar el contenido de una declaración jurada, que incluye “alterar, embellecer, fortalecer, diluir o reformular la evidencia de un declarante”.

Sin embargo, ningún otro estado o territorio ha adoptado esta posición como claramente.

Reglas más claras en el trabajo y como nación

En este momento, usar IA en el trabajo se encuentra en una zona gris de gobierno. La mayoría de las organizaciones se ejecutan sin políticas claras, evaluaciones de riesgos o salvaguardas legales. Incluso si todos lo hacen, el primero atrapado enfrentará las consecuencias.

En mi opinión, legislación nacional uniforme para AI sería preferible. Después de todo, la tecnología de IA que estamos usando es la misma, ya sea que esté en Nueva Gales del Sur o en el Territorio del Norte, y AI sabe Sin bordes físicos. Pero eso es no parece probable todavía.

Si los empleadores no quieren que los trabajadores usen IA en secreto, ¿qué pueden hacer? Si hay riesgos obvios, comience dando a los trabajadores políticas y capacitación más claras.

Un ejemplo es lo que la profesión legal está haciendo ahora (en algunos estados) para dar una guía clara y escrita. Si bien no es perfecto, es un paso en la dirección correcta.

Pero podría decirse que no es lo suficientemente bueno, especialmente porque las reglas no son las mismas a nivel nacional.

Necesitamos más proactivo nacional Gobierno de IA—Con políticas más claras, capacitación, pautas éticas, un enfoque basado en el riesgo y monitoreo de cumplimiento para aclarar el puesto tanto para los trabajadores como para los empleadores.

Sin una política nacional de gobernanza de IA, los empleadores están siendo para navegar por un campo minado regulatorio fragmentado e inconsistente, cortejando las infracciones a cada paso.

Mientras tanto, los mismos trabajadores que podrían estar a la vanguardia de nuestra transformación de IA pueden ser impulsados a usar la IA en secreto, por temor a que sean juzgados como trampas perezosos.

Proporcionado por la conversación

Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Cita: Muchos australianos usan secretamente IA en el trabajo, según un nuevo informe. Las reglas más claras podrían reducir ‘Shadow Ai’ (2025, 16 de agosto) recuperadas el 16 de agosto de 2025 de https://techxplore.com/news/2025-08-australians-secretly-ai-clearer-shadow.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Fuente de noticias