La misteriosa caja negra de la Inteligencia Artificial que tiene perplejos a los expertos

Tomar de referencia los modelos neuronales humanos son la razón detrás de estos resultados

Hace poco, desarrolladores de Inteligencia Artificial de Google (empresa que busca a toda cosa alcanzar a Microsoft y OpenAI en consolidar esta nueva rama tecnológica frente al público socios comerciales) descubrieron una "caja negra" misteriosa en sus productos.

Ilustrativa/Especial.

Estos científicos trabajaban con un software de IA que había adquirido, sorpresivamente, la capacidad para entender un idioma nuevo, en concreto el bengalí, el cual pudo traducir con muy pocas indicaciones sobre este, según reveló James Maneka (jefe de la división de IA de Google) a un programa de CBS.

Esta capacidad de los programas de Inteligencia Artificial para obtener habilidades o dar respuestas inespedadas ha sido apodada por expertos como una "caja negra".

Te puede interesar: OwlyWriter AI: La Inteligencia Artificial para la creación de contenidos en redes sociales

El concepto surge en oposición a las "cajas blancas". Según contó Ian Hogarth (confundador de una empresa tecnológica y autor de un libro sobre IA) a BBC, las cajas blancas son las líneas de código reflejadas claramente en el resultado de un software en construcción. Es decir, cuando se puede explicar con claridad cómo y por qué un sistema informático funciona.

Al respecto, el director ejecutivo de Google afirmó para BBC que es un concepto que no se entiende del todo aún, ya que actualmente hay muchas hipótesis sobre porqué se da este comportamiento, pero nada claro aún.

Un misterio que continuará con el tiempo

Las Inteligencias Artificiales cada día son más utilizadas para toda clase de tareas, cumpliendo diversas funciones que agilizan los procesos laborales de muchas personas.

Este auge en la utilización de estos sistemas ha desatado una guerra económica entre las principales compañías de productos tecnológicos para contar con sus propias herramientas potenciadas por IA, siendo OpenAI la líder del sector gracias a sus aplicaciones ChatGPT y DALLE.

Inclusive, el multimillonario Elon Musk afirmó que buscaría adentrarse en este negocio. Sin embargo, varios profesionales de medio han apuntado que esta tecnología no cuenta con controles por parte de sus desarrolladores, por lo cual pueden llegar a desarrollar una habilidad para la cual no fue desarrollado.

Un proceso especial

A diferencia de otros procesos de creación de software, desarrollar un sistema de Inteligencia Artificial necesita "imitar" las redes neuronales que componen a la inteligencia humana.

Eso conlleva utilizar muchos procesadores que están conectados entre sí, los cuales generan una enorme cantidad de datos, así como el detectar patrones entre millones y millones de variables a través de un aprendizaje automático, al cual se autoadaptan.

Según David Stern, gerente de investigación cuantitativa en G-Research, el enfoque de red neuronal es uno que obliga a configurar millones de parámetros internos, los cuales interactúan de forma muy compleja, lo cual los hace difíciles de explicar y más aún aplicarles ingenería inversa (el proceso en donde se puede reconstruir un sistema al desarmar todas sus piezas).

Este desconocimiento ha sido motivo de discusión en el campo, pues el hecho de que los ingenieros no sean capaces de comprender cómo es que pasan las cosas en las "cajas negras" de las Inteligencias Artificiales levanta temores sobre el desempeño que Bard, ChatPGT u otras aplicaciones de IA puedan tener.

"Tampoco creo que entendamos completamente cómo funciona la mente humana", respondió ante la problemática Pichai en la entrevista para CBS.

Por ello, el futuro del rubro implicará meter en el desarrollo de Inteligencias Artificiales a toda clase de expertos, en especial aquellos pertenecientes a las ciencias sociales, sobre todo disciplinas como la ética, la filosofía, entre muchos más.

Te puede interesar: Cómo obtener la Inteligencia Artificial GPT-4 gratis

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS