Tecnología

El controvertido documento sobre el chip AI de Google está nuevamente bajo escrutinio

Un controvertido artículo de investigación de Google que afirmaba la superioridad de las técnicas de inteligencia artificial en la creación de chips está bajo el microscopio por la autenticidad de sus afirmaciones. La publicación científica Nature está investigando las afirmaciones de Google de que las técnicas de inteligencia artificial le ayudaron a planificar (o establecer la construcción básica de su chip de IA) en menos de seis horas, más rápido que los expertos humanos.

La naturaleza ha puesto un Nota del editor en el periódico, que dice: «Se informa a los lectores que las afirmaciones de rendimiento en este artículo han sido cuestionadas. Los editores están investigando estas inquietudes y, si corresponde, se tomarán medidas editoriales una vez que se complete esta investigación».

Publicado por primera vez en 2021, el artículo se relacionaba con el uso de IA para construir una versión de su Unidad de Procesamiento Tensor, o TPU, que la compañía está utilizando en sus centros de datos en la nube para IA en aplicaciones que incluyen Búsqueda, Mapas y Google Workspace.

El chip en cuestión fue identificado en Twitter como TPU v5 por el investigador. Anna Goldie, quien estaba entre los 20 autores del artículo. La naturaleza puso un asterisco en el papel.

Google dijo que la intención no era reemplazar a los diseñadores humanos, sino mostrar cómo la IA podría ser una técnica colaborativa para acelerar el diseño de chips.

Una versión de TPU-v5, TPU-v5e, salió el mes pasado y ahora está disponible en Google Cloud.

Fue el primer chip de IA de Google lanzado con un conjunto de herramientas y software de desarrollo y virtualización para que los clientes puedan presupuestar y gestionar la orquestación y la implementación de técnicas de IA. El nuevo chip AI compite con la GPU H100 de Nvidia y sucede a la generación anterior TPUv4, que se utilizó para entrenar los grandes modelos de lenguaje PaLM 2.

El controvertido trabajo de investigación estuvo plagado de problemas desde el principio. Los méritos del artículo fueron cuestionados internamente y uno de los autores del artículo se pronunció, Satrajit Chatterjee, fue despedido y presentó una demanda contra Google por despido injustificado.

Los investigadores de Google dijeron que el artículo desapareció. a través de revisión por pares. Pero la investigación no resistió bien los desafíos de los investigadores independientes.

Google ha sido criticado por publicar cantidades mínimas de información relacionada con búsquedas y por resistirse a los llamados a publicar datos completos para el escrutinio público. La empresa acabó publicando cantidades limitadas de información sobre GitHub.

Tablero de TPU de Google

Placa de TPU de Google. Fuente: Google, vídeo «Dentro de un centro de datos TPU de Google Cloud»

La investigación proporciona un marco para utilizar el aprendizaje por refuerzo profundo para planificar el chip o establecer los componentes básicos del chip TPU-v5. El artículo gira en torno al uso de IA para colocar grandes bloques de circuitos que realizan funciones macro específicas en ubicaciones lógicas para generar diseños de chips. El posicionamiento macro es fundamental para el diseño de chips y es un proceso muy desafiante.

La técnica de aprendizaje por refuerzo de Google desarrolló un diseño de chip utilizando información de entrada, como una lista de circuitos formada por componentes de circuitos conectados y datos como la configuración de pistas disponibles para tendidos de cables. El resultado fue un diseño de chip limpio que conduce a un buen posicionamiento macro.

En seis horas, Google pudo reunir los componentes básicos de un chip cohesivo en un área específica dentro de una potencia y un rendimiento específicos. Con el tiempo, el agente de IA utiliza aprendizajes previos que refuerzan sus conocimientos actuales para posicionar mejor los módulos de chip por debajo de los 10 nanómetros.

La técnica de Google utilizó un modelo de aprendizaje que tomó 48 horas para entrenar más de 200 CPU y 20 GPU, y esas horas no se contaron en el tiempo total necesario para diseñar el chip.

Uno de los que desafió la investigación de Google, Andrew B. Kang, profesor de informática en la Universidad de California en San Diego, descubrió que Google necesitaba ser más cooperativo. Criticó la renuencia de Google a publicar datos críticos, como conjuntos de datos de entrenamiento en bucle, información de antecedentes u otro código para que otros investigadores reproduzcan los resultados.

Tuvo que aplicar ingeniería inversa a las técnicas de diseño de chips de Google y descubrió que los diseñadores de chips humanos y las herramientas automatizadas a veces podían ser más rápidos que la técnica de Google basada exclusivamente en inteligencia artificial. En marzo, él presentó un artículo en sus hallazgos en el Simposio Internacional de Diseño Físico, en el que detalló el diseño de chips que involucran humanos y herramientas de software estándar, a veces más rápidas o más eficientes. Sin embargo, no cuestionó el valor de las técnicas de Google.

Dejando a un lado los defectos, la investigación contribuye a la investigación del diseño de chips y Google es una de las pocas empresas que comparte información sobre las técnicas de inteligencia artificial que utiliza para el diseño de chips. Se basa en el trabajo entre bastidores que ya han realizado Cadence y Synopsys para llevar la IA al diseño de chips. AMD y Amazon han afirmado que utilizan IA en el diseño de chips, pero no han discutido sus técnicas.

El fiasco de Nature no es la primera vez que la investigación de hardware de Google es objeto de escrutinio. Google, en 2019, reclamó la supremacía cuántica, y las computadoras cuánticas superaron a las clásicas. Google argumentó que su sistema de 54 qubits llamado Sycamore, en el que los qubits se organizan en una matriz 2D en 200 segundos, resolvió un problema específico que a las supercomputadoras clásicas les habría llevado 10.000 años.

IBM cuestionó la afirmación, diciendo que el documento tenía defectos y creaba confusión sobre el rendimiento de la computación cuántica y la supercomputación, y decidió refutar la teoría de Google. Un artículo posterior de IBM afirmó que su computadora Summit, con la ayuda de almacenamiento secundario adicional, podría lograr un rendimiento seis veces mejor que el afirmado en el artículo sobre supremacía cuántica de Google y resolver problemas en un período de tiempo razonable.

El controvertido artículo cuántico de Google de 2019, considerado innovador en ese momento, también se basó en experimentos a puerta cerrada y no ha envejecido bien. En los años transcurridos desde entonces, más investigadores han dado un paso al frente para cuestionar las afirmaciones de Google. El defecto fue la comparación exacta de Google entre sus algoritmos cuánticos optimizados y algoritmos clásicos más antiguos y lentos.

No está claro si el TPU v5e fue diseñado utilizando la técnica de aprendizaje por refuerzo, pero Google afirmó que el rendimiento del chip es superior al de la generación anterior TPUv4.

Ocho chips TPU v5e pueden entrenar modelos de lenguaje grandes con hasta 2 billones de parámetros. Este mes, Google declaró que “cada chip TPU v5e proporciona hasta 393 billones de operaciones int8 por segundo (TOPS), lo que permite predicciones rápidas para los modelos más complejos”, lo que implica que el chip fue diseñado principalmente para operaciones de inferencia de bajo nivel de apalancamiento. La formación normalmente requiere una canalización de punto flotante.

Google se está poniendo al día en IA con Microsoft, que utiliza las GPU GPT-4 y Nvidia de OpenAI en su supercomputadora Azure AI. La compañía integró recientemente su chatbot Bard con Google Workspace, búsqueda web y otras herramientas. Las herramientas Bard ejecutan sus cálculos de IA en TPU.

Federico Pareja

"Escritora típica. Practicante de comida malvada. Genio zombi. Introvertido. Lector. Erudito de Internet. Entusiasta del café incondicional".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba