17 de septiembre de 2024The Hacker NewsSeguridad GenAI / Seguridad SaaS
Desde el lanzamiento de ChatGPT en 2022, OpenAI ha superado las expectativas con un flujo constante de anuncios y mejoras de productos. Uno de esos anuncios se hizo el 16 de mayo de 2024 y habría parecido inofensivo para la mayoría de los consumidores. La publicación, titulada “Mejora del análisis de datos en ChatGPT”, describe cómo los usuarios pueden agregar archivos directamente desde Google Drive y Microsoft OneDrive. Vale la pena señalar que otras herramientas genAI, como Google AI Studio y Claude Enterprise, han agregado recientemente funciones similares. Bastante sorprendente, ¿no crees? tal vez.
Conectar la cuenta de Google Drive o OneDrive de su organización a ChatGPT (o cualquier otra herramienta genAI) le otorga amplios permisos sobre los recursos de sus unidades compartidas, no solo sobre sus archivos personales. Como puede imaginar, los beneficios de una integración tan amplia conllevan una variedad de desafíos de ciberseguridad.
Entonces, ¿cómo puede saber si sus empleados han habilitado la integración de ChatGPT y Google Drive y monitorear a qué archivos se accede? En esta publicación, le mostraremos cómo hacer esto de forma nativa en Google Workspace y cómo usar Nudge Security para descubrir todas las aplicaciones genAI que está usando y con qué otras aplicaciones están integradas.
Dónde ver la actividad de ChatGPT en Google Workspace
Google Workspace ofrece varias formas de identificar e investigar la actividad relacionada con las conexiones ChatGPT.
Desde la consola de administración de Google Workspace, vaya a (Informes) > (Auditoría e investigaciones) > (Eventos de registro de Drive). Aquí verá una lista de los recursos de Google Drive a los que ha accedido.
También puede investigar la actividad a través de llamadas API en Informes > Auditoría e investigaciones > Eventos de registro de Oauth.
Por lo tanto, verificar periódicamente la consola de administración de Google Workspace puede ayudarlo a comprender a qué recursos accede ChatGPT, pero verificar después de que esta actividad ya haya ocurrido crea una nueva integración con ChatGPT. Por supuesto, recibir una alerta inmediatamente es menos valioso. Aquí es donde Nudge Security resulta útil.
Cómo ver todas las integraciones de Nudge Security y genAI
Nudge Security descubre cuentas creadas por cualquier persona de su organización para cualquier aplicación SaaS, como ChatGPT o una lista en rápida expansión de herramientas genAI recién creadas. No se requiere conocimiento previo de la existencia de la herramienta. Los paneles de control de IA integrados permiten a los clientes adaptarse a la adopción de la IA y mitigar proactivamente los riesgos de seguridad de la IA.
Además, Nudge Security muestra las concesiones de OAuth en toda su organización, como las otorgadas a ChatGPT, en un panel de OAuth filtrable que incluye el tipo de concesión (inicio de sesión o integración), actividad e información sobre riesgos. Filtre por categoría para ver todas las subvenciones asociadas con herramientas de inteligencia artificial.
Al hacer clic en un permiso, se abre una pantalla de detalles donde puede ver el perfil de riesgo, quién creó el permiso y cuándo se creó, detalles de acceso, alcance permitido y más.
Luego puede enviar un “empujón” al creador del permiso a través de Slack o correo electrónico para solicitarle que realice una acción específica, como limitar el alcance del permiso o revocar el permiso inmediatamente desde la interfaz de usuario de Nudge Security.
Finalmente, puede configurar reglas personalizadas para recibir notificaciones cuando los usuarios de su organización creen concesiones OAuth para ChatGPT u otras aplicaciones genAI. También puede crear reglas para recibir notificaciones instantáneas cuando se creen nuevas cuentas de genAI y solicitar a los nuevos usuarios de genAI que revisen y aprueben la política de uso aceptable de genAI.
Equilibrando productividad y seguridad
La integración de ChatGPT con Google Drive y Microsoft OneDrive tiene el potencial de mejorar enormemente la productividad, pero también plantea importantes riesgos de seguridad. Las organizaciones deben abordar estas integraciones con una comprensión clara de los riesgos potenciales e implementar medidas de gobernanza y seguridad adecuadas para mitigar los riesgos.
Nudge Security proporciona visibilidad, contexto y automatización para ayudar a las empresas a implementar herramientas genAI sin comprometer la seguridad de los datos.
Comience hoy su prueba gratuita de 14 días y vea instantáneamente todas las aplicaciones genAI implementadas en su organización y todas las integraciones con otras aplicaciones.
¿Te pareció interesante este artículo? Este artículo es una contribución de nuestros valiosos socios. Gorjeo Para leer más contenido exclusivo nuestro, visítenos en LinkedIn.
https://thehackernews.com/2024/09/how-to-investigate-chatgpt-activity-in.html