La inteligencia artificial ChatGPT ha tomado mucha fama y ha generado todo tipo de polémicas desde su inauguración; sin embargo, los creadores del chatbot siguen buscando solucionar problemas de seguridad o limitar el uso de la herramienta para fines poco éticos.
Es por ello que OpenAI decidió lanzar una campaña de recompensas para quienes logren detectar errores en ChatGPT. Los usuarios que detecten los errores deberán enviar los informes a través de la plataforma de ciberseguridad Bugcrowd.
La empresa explicó cuál es la idea, las reglas y sus expectativas. Lo primero que se lee en el sitio web es que “la seguridad es esencial para la misión de OpenAI. Agradecemos las contribuciones de los piratas informáticos éticos que nos ayudan a mantener altos estándares de privacidad y seguridad para nuestros usuarios y tecnología”.
Continúan describiendo las reglas e instrucciones para participar en el programa de recompensas de Open AI.
¿Cómo participar en las recompensas de Open AI?
- Informar de inmediato sobre las vulnerabilidades descubiertas.
-Abstenerse de violar la privacidad, interrumpir los sistemas, destruir datos o dañar la experiencia del usuario.
-Use el programa Bugcrowd de OpenAI para la comunicación relacionada con vulnerabilidades.
-Mantenga la confidencialidad de los detalles de la vulnerabilidad hasta que el equipo de seguridad de OpenAI autorice su publicación, cuyo objetivo es proporcionar la autorización dentro de los 90 días posteriores a la recepción del informe.
-Pruebe solo los sistemas dentro del alcance y respete los sistemas fuera del alcance.
-No acceda, modifique ni use datos que pertenecen a otros, incluidos los datos confidenciales de OpenAI.
-Si una vulnerabilidad expone dichos datos, deje de realizar pruebas, envíe un informe de inmediato y elimine todas las copias de la información.
-Interactúe solo con sus propias cuentas, a menos que esté autorizado por OpenAI.
-La divulgación de vulnerabilidades a OpenAI debe ser incondicional.
-No participe en extorsiones, amenazas u otras tácticas para obtener una respuesta bajo coacción.
¿Cuánto paga OpenAI por encontrar los errores?
En la página Bugcrowd se desglosa el cómo se harían los pagos según los errores que se encuentren; debido a que no todos tendrían el mismo valor: los pagos más bajos serán de 200 dólares y, si la importancia de las vulnerabilidades encontradas es más grave, el valor irá aumentando hasta un pago máximo de 6.500 dólares.
En las recompensas se contemplan pagos por 500, 1.000 y 2.000 dólares; pero, hay un pago de 20.000 dólares, para los “descubrimientos excepcionales”. Estos pagos serían con fallas en el sistema que pongan en peligro a la compañía o que causen posibles pérdidas millonarias.