LONDRES/WASHINGTON, 11 ago (Reuters) – Muchos trabajadores en todo Estados Unidos están recurriendo a ChatGPT para ayudarlos con tareas básicas, a pesar de los temores que han llevado a empleadores como Microsoft y Google a restringir su uso, según una encuesta de Reuters/Ipsos.
Las empresas de todo el mundo están considerando la mejor manera de utilizar ChatGPT, un programa de chatbot que utiliza IA para mantener conversaciones con los usuarios y responder a una gran cantidad de mensajes. Sin embargo, las empresas y empresas de seguridad han expresado su preocupación de que podría dar lugar a filtraciones estratégicas y de propiedad intelectual.
Redactar correos electrónicos, resumir documentos y realizar investigaciones preliminares son ejemplos de personas que usan ChatGPT para ayudar con sus tareas diarias.
Alrededor del 28% de los encuestados en una encuesta en línea sobre inteligencia artificial (IA) entre el 11 y el 17 de julio dijeron que usan ChatGPT regularmente en el trabajo.
Una encuesta de Reuters/Ipsos de 2625 adultos en los EE. UU. mostró la misma brecha de credibilidad.
Alrededor del 10 % de los encuestados dijo que sus empleadores prohibieron explícitamente las herramientas externas de IA, mientras que el 25 % no sabía si su empresa les permitía usar la tecnología.
ChatGPT se convirtió en la aplicación de más rápido crecimiento en la historia después de su lanzamiento en noviembre. Eso ha generado tanto entusiasmo como alarma, lo que ha llevado a su desarrollador OpenAI a entrar en conflicto con los reguladores, particularmente en Europa, donde la recopilación masiva de datos de la empresa ha generado críticas por parte de los organismos de control de la privacidad.
Los revisores humanos de otras empresas pueden leer cualquiera de los chats generados, y los investigadores descubrieron que una IA de inteligencia artificial similar puede reproducir los datos absorbidos durante el entrenamiento, lo que crea un riesgo para la información patentada.
«La gente no entiende cómo se utilizan los datos cuando se utilizan los servicios de IA que se están generando», dijo Ben King, vicepresidente de confianza del cliente de la firma de seguridad corporativa Okta (OKTA.O).
«Es realmente importante para las empresas porque los usuarios no contratan muchas IA, porque son un servicio gratuito, por lo que las empresas no corren el riesgo a través de su proceso de evaluación regular», dijo King.
OpenAI se negó a comentar cuando se le preguntó acerca de las implicaciones para los empleados individuales que usan ChatGPT, pero destacó una publicación reciente en el blog de la compañía que asegura a los socios corporativos que sus datos no se utilizarán para capacitar más al chatbot a menos que den un permiso expreso.
Cuando las personas usan la barra de Google, recopila datos como texto, ubicación y otra información de uso. La empresa permite a los usuarios eliminar la actividad pasada de sus cuentas y solicita que se elimine el contenido de AI. Google, propiedad de Alphabet (GOOGL.O), se negó a comentar cuando se le pidió más detalles.
Microsoft (MSFT.O) no respondió de inmediato a una solicitud de comentarios.
‘Tareas beneficiosas’
Un empleado de Tinder con sede en EE. UU. dijo que los trabajadores de la aplicación de citas usaban ChatGPT para «tareas inofensivas», como escribir correos electrónicos, aunque la empresa no lo permitía oficialmente.
«Son correos electrónicos regulares. Lo usamos para crear divertidas invitaciones de calendario para eventos de equipo, correos electrónicos de despedida cuando alguien se va… incluso para investigaciones generales», dijo el empleado, que se negó a ser identificado. Autoridad para hablar con la prensa.
El empleado dijo que Tinder «no tiene una regla de ChatGBT», pero que los empleados la usan «de una manera general que no revela nada sobre nuestra presencia en Tinder».
Reuters no pudo confirmar de forma independiente cómo los empleados de Tinder usan ChatGPT. Tinder dijo que proporcionó «orientación regular a los empleados sobre las mejores prácticas de seguridad y datos».
En mayo, Samsung Electronics prohibió a nivel mundial el uso de ChatGPT y herramientas de inteligencia artificial similares después de que se descubriera que un empleado había subido un código confidencial a la plataforma.
“Estamos revisando medidas para crear un entorno seguro para el uso de IA que mejore la productividad y la eficiencia de los empleados”, dijo Samsung en un comunicado el 3 de agosto.
“Sin embargo, hasta que estas medidas estén listas, estamos restringiendo temporalmente el uso de la IA generada por los dispositivos de la compañía”.
Reuters informó en junio que Alphabet advirtió a los empleados sobre cómo usa los chatbots, incluido Google Bart, mientras comercializa el programa a nivel mundial.
Aunque Bart puede hacer sugerencias de código no deseadas, Google dijo que ayuda a los programadores. También dijo que pretende ser transparente sobre las limitaciones de su tecnología.
Barreras de manta
Algunas empresas dijeron a Reuters que están adoptando ChatGPT y plataformas similares teniendo en cuenta la seguridad.
“Comenzamos a experimentar y aprender cómo la IA puede mejorar la eficiencia de las operaciones, datos que permanecen dentro de su firewall”, dijo una portavoz de Coca-Cola en Atlanta, Georgia.
«Internamente, recientemente lanzamos una versión empresarial de Coca-Cola ChatGPT para la productividad», dijo el portavoz, y agregó que Coca-Cola planea usar IA para mejorar la eficiencia y la productividad de sus equipos.
Mientras tanto, el director financiero de Tate & Lyle ( TATE.L ), Dan Allen, dijo a Reuters que el fabricante global de ingredientes estaba probando ChatGPT y «encontró una manera de usarlo de manera segura».
«Tuvimos diferentes equipos que decidieron cómo usarlo a través de pruebas continuas. ¿Deberíamos usarlo en las relaciones con los inversores? ¿Deberíamos usarlo en la gestión del conocimiento? ¿Cómo podemos usarlo para realizar las tareas de manera más eficiente?»
Algunos empleados dicen que no pueden acceder a la plataforma en las computadoras de su empresa.
«Está completamente prohibido en la red de la oficina y no funciona», dijo un empleado de Procter & Gamble (PG.N), que habló bajo condición de anonimato porque no estaba autorizado para hablar con los periodistas.
P&G se negó a comentar. Reuters no pudo confirmar de forma independiente si los empleados de P&G no podían usar ChatGPT.
Paul Lewis, director de seguridad de la información de la firma de seguridad cibernética Nominet, dijo que las empresas tienen razón en ser cautelosas.
«Todos se benefician de esa mayor capacidad, pero la información no es completamente segura y puede manipularse», dijo, citando «estímulos maliciosos» que los chatbots de IA pueden usar para obtener acceso.
«Aún no está garantizada una prohibición general, pero tenemos que andar con cuidado», dijo Lewis.
Información de Richa Naidu, Martin Coulter y Jason Lange; Editado por Alexander Smith
Nuestros estándares: Principios de confianza de Thomson Reuters.
«Fanática de la web. Pionero de la comida. Organizador amigable con los inconformistas. Empresaria de por vida»
More Stories
El infierno se congela en Texas: las subvenciones de la Reserva Federal conectarán el estado con la red eléctrica estadounidense por primera vez
Tesla se incendia dentro de un garaje inundado en Florida tras el huracán Helen: vídeo
El Dr. Ralph de la Torre, director ejecutivo de Stewart, abandonó la empresa en quiebra