Google no quiere que sus trabajadores usen Bard, su propia inteligencia artificial, ¿por qué?

Estos bots generadores de texto pueden representar un problema para la seguridad de datos confidenciales 

La guerra de las inteligencias artificiales continúa, con los gigantes tecnológicos buscando ofrecer lo más pronto posible sus productos potenciados por estas herramientas digitales.

Dentro de este contexto, destaca el caso de Google, pues si bien la empresa quedó en segundo lugar ante la delantera que tomaron OpenAI y Microsoft con ChatGPT para Bing, la empresa detrás del buscador más usado del mundo lanzó su proyecto denominado Bard, el cual promete ser el gran asistente virtual con el que la compañía le entraría de lleno al mercado de las IA.

Sin embargo, tal parece que Google no se encuentra muy confiado de su propio producto, pues según reportó Reuters, Alphabet Inc. (compañía emparentada a Google) ha pedido a sus empleados que sean "cuidadosos" con los chatbots, incluyendo a Bard.

 Al parecer los gigantes tecnológicos aún no saben cómo evitar que los bots potenciados por inteligencia artificial reciclen información confidencial delicada de las solicitudes que reciben. Fuente: Google.

Según cuatro fuentes cercanas a la empresa, Alphabet Inc. hizo la recomendación a su personal para que no incluyan información confidencial de la empresa en chatbots como ChatGPT o Bard, por temor a las filtraciones de datos.

En concreto, Alphabet estaría preocupado de que sus empleados escriban información sensible en estos programas, ya que estos por lo regular son revisados por humanos que bien podrían estar del otro lado del chat, asegurándose de que las solicitudes y respuestas sean pertinentes.

Te puede interesar: La inteligencia artificial de Google reconocerá a quienes salgan de espaldas en una foto

¿A qué le teme Google?

Algo que pocos saben es que tanto ChatGPT como otros chatbots generales pueden entrenarse a sí mismos con las solicitudes que los usuarios les hayan hecho en el pasado, lo cual representa un riesgo grave para la filtración de datos.

Supongamos que usas ChatGPT y le pides que te haga una tabla con las principales comisiones de mes en tu empresa, si bien puede que te brinde lo que pidas, ahora todos los datos de los ingresos de tu compañía le pertenecerán la bot, quien podrá generar la información a quien sea (incluyendo tus competidores).

Esta clase de peligros son la razón por la cual otras grandes empresas como Samsung han prohibido a sus trabajadores el uso de bots ajenos a la compañía, aunque casos similares se han presentado en Amazon y Apple.

Google lanzó Bard en marzo y está constituido por su propio motor de inteligencia artificial, llamado "Language Model for Dialogue Applications", mejor conocido como LaMDA por sus siglas en inglés.

De momento, el lanzamiento de Bard ha tenido sus altas y bajas, incluyendo una pausa en su disponibilidad en la Unión Europea luego de que reguladores de Irlanda citaran preocupaciones ante los riesgos de privacidad que podría suponer el chatbot, alegando que Google y Bard no se apegan a la Ley de Protección de Datos Personales de la agrupación de países.

Te puede interesar: "Reviven" a Jesús como un streamer usando inteligencia artificial

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS