Recientemente se conoció que el gigante tecnológico Google está entrenando su IA con el producto de su competidor. Lo que parece un movimiento lógico en el desarrollo de modelos de IA cada vez más sofisticados también plantea algunos cuestionamientos éticos. A continuación, expondremos algunas aristas sobre este hecho que está generando gran controversia.
Gemini y Claude: parecidos, pero no iguales
En primer lugar, y antes de entrar en la polémica, debes conocer la diferencia entre los modelos de inteligencia artificial de las marcas Google y su competidora Anthropic. Gemini de Google es un modelo de lenguaje grande, mientras que Claude de Anthropic es un modelo antrópico de inteligencia artificial.
Gemini posee un enfoque multidimensional, por lo que puede ser utilizado en una amplia variedad de aplicaciones. Algunas de ellas son la búsqueda de información, la traducción de idiomas, la generación de contenido creativo y de códigos de computación.
Por otra parte, Claude está concebido como un asistente virtual muy inteligente, diseñado para ser útil, honesto e inofensivo. Destaca por su capacidad para mantener conversaciones fluidas y coherentes sobre una amplia variedad de temas.
¿Por qué Google está entrenando su IA con Claude?
La principal razón por la cual Google está entrenando su IA con Claude parece ser su necesidad de mantener su estatus como principal buscador web. Por ello,necesita garantizar un buscador de internet extraordinariamente capaz de tener una interacción natural con el usuario. Y dado que Google ha integrado a Gemini como herramienta de búsqueda, requiere que su modelo de IA emule las capacidades comunicacionales de Claude.
Entrenar la IA de Google con los modelos de inteligencia artificial de la competencia implica otras ventajas adicionales. Es bien sabido que el adiestramiento de cualquier IA es un proceso largo, laborioso y computacionalmente costoso. Y usar modelos ya validados durante el entrenamiento supone la reducción de tiempo y coste de dicha tarea.
¿Es ético que Google entrene su IA con productos de su competencia?
Es bueno recordar que Google se ha visto envuelto en controversias éticas casi desde su fundación. Basta recordar que su modelo de negocio se basa en recopilar de la red datos de terceros, generalmente sin autorización, para luego obtener ganancias con ellos. Además, el Departamento de Justicia de Estados Unidos le ha abierto un juicio por conducta monopolística ilegal.
Con esos precedentes, es normal que la noticia de que Google entrena su IA con productos de su competencia sea considerada un comportamiento antiético. Pero que Google sea un importante inversor en Anthropic pone un tono gris al asunto. Algunos afirman entonces que la empresa de Gemini solo está sacando provecho de su inversión en la casa matriz de Claude.
Por otra parte, hasta la fecha de la redacción de este artículo, no ha sido posible aclarar si Google cuenta con la aprobación de Anthropic para emplear su producto Claude.Ambas empresas se han mostrado muy herméticas al ser consultadas sobre el tema y no han afirmado ni negado la existencia de dicho permiso.
Para muchos, el principal problema ético a considerar en este caso no es el uso de Claude para el entrenamiento de la IA de Google. Sino el hecho de que Google sea un accionista en Anthropic, una marca que es su competencia directa. Y es que ello puede interpretarse como una iniciativa de Google para lograr el monopolio en el campo del desarrollo de la inteligencia artificial.
Luego, en este caso resulta bastante complejo desde el punto de vista ético: no es fácil discernir qué está bien y qué no. Eso sin considerar el aspecto legal, ya que el uso de productos de competidores sin autorización infringiría las leyes de propiedad intelectual.