Apple prohíbe usar ChatGPT a sus empleados, conoce el motivo aquí 21 mayo, 2023 Noticias de actualidad Apple prohíbe usar ChatGPT a sus empleados, conoce el motivo aquí5 (100%) 1 voto Las inteligencias artificiales continúan en gran expansión y crecimiento. Sin embargo, hay algunos aspectos que preocupan a ciertas empresas, los cuales han llevado a su prohibición en el área de trabajo. Ahora, Apple es la última en prohibir ChatGPT a sus empleados. Anteriormente, grandes compañías como Samsung, JP Morgan, Goldman Sachs (entre otras corporaciones importantes) ya prohibieron el uso de chatbots impulsados por IA como ChatGPT, Bard y Bing entre su fuerza laboral. Parece que esta tendencia seguirá, y el movimiento de Apple es clara muestra de ello. Pero, ¿Cuál es el motivo para que ocurra esto? Te lo explicamos a continuación. Índice1 Apple prohíbe los chatbots con IA a sus empleados por estas razones1.1 Antecedentes de brechas de seguridad preocupantes para grandes empresas1.2 ARTÍCULOS RELACIONADOS A ESTA PUBLICACIÓN Apple prohíbe los chatbots con IA a sus empleados por estas razones Fortalecimiento de la privacidad de los datos: La prohibición de uso de ChatGPT (y otros servicios similares) a empleados de Apple es parte de un esfuerzo para evitar la exposición accidental de datos confidenciales. Además, la medida también coincide con planes para desarrollar una tecnología similar internamente. Según un informe de The Wall Street Journal, Apple también ha advertido a sus empleados que no utilicen Copilot de Microsoft, un software que ayuda a escribir código de software. La prohibición se produce en medio de preocupaciones sobre cómo estos chatbots de IA, como ChatGPT, manejan los datos de los usuarios. Recordemos que estas plataformas tienen una base de usuarios combinada de cientos de millones. La forma en que utilizan los datos de los usuarios para entrenar sus bots se ha convertido en un importante punto de preocupación. Después de todo, cualquier cosa mencionada a estos chatbots puede hacerse pública en conversaciones con cualquier otro usuario, lo cual puede incluir información confidencial. Antecedentes de brechas de seguridad preocupantes para grandes empresas De hecho, ya ha habido algunos antecedentes de seguridad preocupantes para este campo. Por ejemplo, a principios de este año, se descubrió un error en ChatGPT que permitía a algunos usuarios ver los títulos del historial de chat de otros usuarios. Esto llevó a OpenAI, el desarrollador de ChatGPT, a desconectar temporalmente el servicio. A raíz de estos problemas de privacidad, OpenAI introdujo una opción para que los usuarios deshabilitaran el historial de chat. De esta manera, se evitaría que el modelo de IA se entrenara con sus datos de conversaciones. Pero parece que este movimiento no es suficiente para empresas como Apple, quienes han optado directamente por restringir el uso de estos chatbots. Samsung también adoptó una postura similar, prohibiendo a sus empleados usar chatbots de IA como ChatGPT después de que se compartió código fuente propietario con la herramienta. Según se informa, la empresa está desarrollando sus propias herramientas de IA y ha dado instrucciones a los empleados para que no compartan ninguna información personal o de la empresa en chatbots de terceros. Fuente ¿Te ha parecido interesante esta noticia? Puedes dejarnos un comentario con tu opinión, te lo agradeceremos. COMPARTE LA NOTICIA CON TUS AMIGOS:Haz clic para compartir en Facebook (Se abre en una ventana nueva)Haz clic para compartir en Twitter (Se abre en una ventana nueva)Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)Haz clic para compartir en Reddit (Se abre en una ventana nueva)Haz clic para compartir en Tumblr (Se abre en una ventana nueva)Haz clic para compartir en Pinterest (Se abre en una ventana nueva)Haz clic para compartir en Pocket (Se abre en una ventana nueva)Haz clic para compartir en Telegram (Se abre en una ventana nueva)Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)Haz clic para compartir en Skype (Se abre en una ventana nueva) ARTÍCULOS RELACIONADOS A ESTA PUBLICACIÓN Para comentar debe estar registrado.