{"id":184135,"date":"2025-07-23T09:30:36","date_gmt":"2025-07-23T12:30:36","guid":{"rendered":"https:\/\/radioacuariofm.com.ar\/?p=184135"},"modified":"2025-07-23T09:30:40","modified_gmt":"2025-07-23T12:30:40","slug":"saber-usar-ia-es-requisito-para-los-trabajos-pero-un-profesional-que-la-aplica-genera-desconfianza","status":"publish","type":"post","link":"https:\/\/radioacuariofm.com.ar\/?p=184135","title":{"rendered":"Saber usar IA es requisito para los trabajos, pero un profesional que la aplica genera desconfianza"},"content":{"rendered":"<p><img decoding=\"async\" src=\"https:\/\/radioacuariofm.com.ar\/wp-content\/uploads\/2025\/07\/un-estudio-reciente-revela-la-paradoja-que-genera-UR5SEO3DVVAOBI7OVQUP47B4Q4-1.jpg\"\/>  <\/p>\n<p>A medida que la inteligencia artificial generativa se integra en el \u00e1mbito laboral, surgen mejoras, como un aumento en los niveles de productividad. Pero tambi\u00e9n aparecen nuevos desaf\u00edos. Por ejemplo, ya sea que un empleado utilice GenIA para redactar un mail, analizar datos o preparar una presentaci\u00f3n, <strong>el simple hecho de revelar que se est\u00e1 apoyando en esta tecnolog\u00eda podr\u00eda hacer que los dem\u00e1s conf\u00eden menos<\/strong> en sus capacidades profesionales.<\/p>\n<p>Esta es la principal conclusi\u00f3n de la investigaci\u00f3n <em>The transparency dilemma: How AI disclosure erodes trust<\/em><em> (El dilema de la transparencia: como divulgar el uso de IA erosiona la confianza)<\/em>, llevada a cabo por investigadores de la Universidad de Arizona, Estados Unidos; y Monterrey, en M\u00e9xico, concluy\u00f3 que <strong>revelar el uso de la IA compromete la confianza en quien la usa<\/strong>.<\/p>\n<p>En este contexto, el dato local resulta clave: en Argentina, <strong>el 88% de los profesionales que trabajan en empresas ya usa herramientas de inteligencia artificial <\/strong>en sus tareas diarias, incluso en organizaciones donde no existen pol\u00edticas formales que promuevan su uso. As\u00ed lo se\u00f1ala el relevamiento <em><strong>Decime que us\u00e1s IA sin decirme que us\u00e1s IA<\/strong><\/em>, realizado por IDEA entre casi 400 profesionales de empresas grandes y medianas, locales y multinacionales, de distintos sectores. Adem\u00e1s, el 80% de las empresas anticipa que parte de las tareas actualmente humanas pasar\u00e1n a ser realizadas por inteligencia artificial, seg\u00fan el Informe sobre Transformaciones del Trabajo en Argentina de la Universidad Siglo 21.<\/p>\n<p>En este escenario, el tema cobra especial relevancia: <strong>lo que est\u00e1 en juego no es solo la eficiencia, sino tambi\u00e9n la reputaci\u00f3n profesional<\/strong> de quienes adoptan esta tecnolog\u00eda.<\/p>\n<p>Tras analizar el impacto de la divulgaci\u00f3n de la IA en la confianza en diversas tareas en supervisores, subordinados, profesores, analistas y creativos, los investigadores comprobaron que <strong>quienes hacen p\u00fablico el uso de la IA generan menos confianza que quienes no lo hacen<\/strong>.<\/p>\n<p>Y la situaci\u00f3n puede ser a\u00fan peor. Si revelar el uso de IA genera sospechas, los usuarios se enfrentan a una dif\u00edcil decisi\u00f3n: <strong>aceptar la transparencia y arriesgarse a una reacci\u00f3n negativa, o guardar silencio y arriesgarse a ser expuestos posteriormente,<\/strong> un resultado que, seg\u00fan nuestros hallazgos, erosiona a\u00fan m\u00e1s la confianza.<\/p>\n<p>Por eso es tan importante comprender el dilema de la transparencia de la IA. Tanto si sos un gestor que implementa una nueva tecnolog\u00eda como un artista que decide si incluir la IA en tu cartera, la situaci\u00f3n es cada vez m\u00e1s complicada.<\/p>\n<p>\u201cSi bien hasta hace un tiempo no estaba bien visto cuando alguien resolv\u00eda algo con IA, hoy se empieza a sincerar qu\u00e9 cosas pueden resolverse con esta tecnolog\u00eda y cu\u00e1les requieren nuestra experiencia y mirada humana\u201d, se\u00f1ala Wanda Dahir, Licenciada en Recursos Humanos y directora de la Carrera de RRHH en la Escuela Superior de Econom\u00eda y Negocios de la Universidad de Mor\u00f3n. Y agrega: \u201cCoincido en que no todo debe resolverse con un clic. Es fundamental seguir ejercitando el pensamiento cr\u00edtico, la capacidad de an\u00e1lisis y la curiosidad intelectual. Para eso, es clave trabajar con las fuentes, pero siempre sumando nuestra impronta personal: eso es lo que realmente nos diferencia del algoritmo o del machine learning\u201d.<\/p>\n<p>Por su parte, Federico Carrera, Co-founder &amp; COO de High Flow, explica que no han encontrado normas expl\u00edcitas que proh\u00edban el uso de IA de forma libre dentro de las empresas. \u201cEn muchas organizaciones m\u00e1s innovadoras, se alienta su aprovechamiento para ganar eficiencia, reducir costos y ahorrar tiempo\u201d, se\u00f1ala. No obstante, recomienda <strong>establecer pol\u00edticas claras sobre c\u00f3mo, cu\u00e1ndo y en qu\u00e9 casos aplicar la inteligencia artificial<\/strong>. Tambi\u00e9n sugiere revisar los contenidos generados y analizar los posibles sesgos que pueden surgir, ya que, como toda tecnolog\u00eda creada por humanos, la IA los incorpora en su funcionamiento.<\/p>\n<p>Respecto de la investigaci\u00f3n arriba citada, Carrera destaca: \u201cEs importante entenderla dentro del marco de la teor\u00eda de la institucionalidad, seg\u00fan la cual las empresas se estructuran, operan y evolucionan en funci\u00f3n de presiones externas para cumplir expectativas, normas y ser aceptadas. En ese contexto, <strong>la p\u00e9rdida de legitimidad por falta de confianza representa un riesgo elevado<\/strong> para aquellas compa\u00f1\u00edas que buscan mimetizarse con la mayor\u00eda, adoptando valores, normas sociales y creencias compartidas. En cambio, para las organizaciones disruptivas e innovadoras, esta situaci\u00f3n puede ser una ventaja, sobre todo si apuntan a captar early adopters o ingresar en nuevos segmentos de mercado\u201d.<\/p>\n<p>Todav\u00eda no est\u00e1 claro si esta penalizaci\u00f3n por transparencia desaparecer\u00e1 con el tiempo. <strong>A medida que la IA se generalice y demuestre ser m\u00e1s fiable, revelar su uso podr\u00eda dejar de generar desconfianza<\/strong>.<\/p>\n<p>Tampoco hay consenso sobre c\u00f3mo deber\u00edan gestionar las organizaciones la divulgaci\u00f3n del uso de inteligencia artificial. Una opci\u00f3n es que la transparencia sea voluntaria y quede en manos de cada profesional. Otra es establecer pol\u00edticas de divulgaci\u00f3n obligatoria para todos los empleados.<\/p>\n<p>Un enfoque complementario es el cultural: <strong>crear un entorno de trabajo donde el uso de IA se perciba como algo normal, leg\u00edtimo y aceptado<\/strong>. Este tipo de cultura podr\u00eda mitigar la penalizaci\u00f3n por falta de confianza y, al mismo tiempo, fomentar la transparencia y la credibilidad.<\/p>\n<p>\u201cLos departamentos de RRHH hoy enfrentan un proceso de reconversi\u00f3n constante. No solo porque el avance tecnol\u00f3gico est\u00e1 transformando el mundo laboral, sino tambi\u00e9n por la necesidad de acompa\u00f1ar a las personas en su propia transformaci\u00f3n\u201d, afirma Dahir. Y agrega: \u201cContar con una cultura organizacional clara, transparente y que fomente el uso de IA, pero siempre con criterio, ser\u00e1 una de las bases de las organizaciones del presente (y del futuro)\u201d.<\/p>\n<p>Es momento de sincerarnos: el uso de la IA ya es una realidad instalada. Por eso, es indispensable establecer pol\u00edticas claras que definan sus l\u00edmites \u00e9ticos. Los manuales de \u00e9tica deben actualizarse y reflejar que no est\u00e1 mal utilizar la IA para agilizar el acceso a la informaci\u00f3n, siempre que no dejemos de confiar en nuestra experiencia, intuici\u00f3n y capacidad de an\u00e1lisis estrat\u00e9gico.<\/p>\n<p>Una pr\u00e1ctica s\u00f3lida implica que, m\u00e1s all\u00e1 del informe que se presente, siempre debe quedar claro que el ser humano tiene la \u00faltima palabra. La clave est\u00e1 en ense\u00f1ar a usar la inteligencia artificial como <strong>una herramienta para potenciar nuestras tareas, no para reemplazarnos<\/strong>.<\/p>\n<p>Carrera, por su parte, considera que en Argentina el camino es hacia la normalizaci\u00f3n cultural del uso de IA: \u201cLa tecnolog\u00eda se vuelve cada vez m\u00e1s accesible y conocida. Adem\u00e1s, exigir transparencia u obligatoriedad implicar\u00eda controles, inversiones y costos adicionales, lo que va en contra de una adopci\u00f3n masiva\u201d.<\/p>\n<p>Y agrega: \u201cEl miedo a ser reemplazado por la IA, o las sospechas internas sobre su uso, suelen tener m\u00e1s eco en el imaginario que en la realidad. Hablamos con cerca de cien candidatos por d\u00eda y casi nunca mencionan medidas espec\u00edficas de las empresas al respecto. Lo mismo ocurre del lado corporativo: cuando hablamos con directivos, no manifiestan preocupaciones significativas sobre el tema\u201d.<\/p>\n<p>La entrada Saber usar IA es requisito para los trabajos, pero un profesional que la aplica genera desconfianza se public\u00f3 primero en DIARIO DIGITAL MORENO MEDIOS.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A medida que la inteligencia artificial generativa se integra en el \u00e1mbito laboral, surgen mejoras, como un aumento en los niveles de productividad. Pero tambi\u00e9n aparecen nuevos desaf\u00edos. Por ejemplo, ya sea que un empleado utilice GenIA para redactar un mail, analizar datos o preparar una presentaci\u00f3n, el simple hecho de revelar que se est\u00e1 apoyando en esta tecnolog\u00eda podr\u00eda hacer que los dem\u00e1s conf\u00eden menos en sus capacidades profesionales.<br \/>\n Esta es la principal conclusi\u00f3n de la investigaci\u00f3n The transparency dilemma: How AI disclosure erodes trust (El dilema de la transparencia: como divulgar el uso de IA erosiona la confianza), llevada a cabo por investigadores de la Universidad de Arizona, Estados Unidos; y Monterrey, en M\u00e9xico, concluy\u00f3 que revelar el uso de la IA compromete la confianza en quien la usa.<br \/>\n En este contexto, el dato local resulta clave: en Argentina, el 88% de los profesionales que trabajan en empresas ya usa herramientas de inteligencia artificial en sus tareas di..<\/p>\n","protected":false},"author":2,"featured_media":184136,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[28],"tags":[],"class_list":["post-184135","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-economia"],"_links":{"self":[{"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/184135","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=184135"}],"version-history":[{"count":1,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/184135\/revisions"}],"predecessor-version":[{"id":184138,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/184135\/revisions\/184138"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=\/wp\/v2\/media\/184136"}],"wp:attachment":[{"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=184135"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=184135"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/radioacuariofm.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=184135"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}