Google reúne equipos de IA para buscar nuevos modelos • The Register
Google está consolidando los distintos equipos que trabajan en IA generativa bajo el equipo DeepMind en un intento de acelerar el desarrollo de sistemas más capaces.
La decisión, transmitido por el director ejecutivo Sundar Pichai el jueves, se basa en esfuerzos de consolidación anteriores en torno al desarrollo de la inteligencia artificial en la fábrica de chocolate. El año pasado, el gigante de las búsquedas combinó su equipo DeepMind y su división Brain para formar un confuso grupo llamado Google DeepMind. Este equipo fue responsable de capacitar a los modelos detrás del chatbot Gemini de Google.
Pichai ahora planea reunir a todos los equipos que construyen modelos de IA bajo un mismo techo.
«Todo este trabajo ahora vivirá en Google DeepMind y ampliará nuestra capacidad para ofrecer IA capaz a usuarios, socios y clientes», escribió, y agregó que la medida permitirá a Google Research centrar más su atención en la investigación de la informática básica y aplicada. . Ciencia.
El llamado equipo de IA Responsable de Google también se unirá al equipo de DeepMind, donde se espera que desempeñe un papel más importante en el desarrollo inicial de nuevos modelos. Google dice que ya ha transferido otros grupos de responsabilidad a su equipo central de confianza y seguridad y planea desarrollar protocolos de prueba y evaluación de IA más extensos.
Las medidas probablemente se tomaron en un esfuerzo por evitar confusiones vergonzosas, que han afectado a muchas de las primeras ofertas de IA generativa, incluidos Bard de Google y más tarde los chatbots Gemini.
En febrero, Google se vio obligado a suspender las capacidades de conversión de texto a imagen de Gemini después de que no logró representar con precisión a europeos y estadounidenses en contextos históricos específicos. Por ejemplo, cuando se le pedía que generara imágenes de un soldado alemán de 1943, generaba constantemente imágenes de personajes no blancos.
Para evitar esto, Pichai dice que Google también está «estandarizando los requisitos de lanzamiento para funciones impulsadas por IA y aumentando las inversiones en pruebas del 'equipo rojo' para detectar vulnerabilidades y evaluaciones más amplias para ayudar a garantizar que las respuestas sean precisas y receptivas para nuestros usuarios».
En otras palabras, ahora que Google se ha establecido como un peso pesado de la IA generativa junto con Microsoft, OpenAI y otros, dedicará un poco más de tiempo a buscar formas de hacer que sus modelos se comporten mal antes de que sus usuarios tengan la oportunidad.
Saltar las barreras de protección de la IA para generar contenido o sugerencias abusivas, tóxicas o inseguras, como por ejemplo cómo suicidarse, se ha convertido en un problema importante para los creadores de modelos.
Los esfuerzos de consolidación también se extienden al desarrollo de hardware de IA. Los cambios harán que los equipos de Plataforma y Ecosistema y Dispositivos y Servicios se combinen en un nuevo grupo llamado Plataformas y Dispositivos. Como parte de esta medida, los empleados que trabajan en fotografía computacional e inteligencia en dispositivos también se unirán a la división de hardware combinada.
Pichai finalizó su memorando advirtiendo a los empleados que dejaran sus venganzas personales en casa.
«Este es un negocio y no un lugar para actuar de una manera que moleste a los compañeros de trabajo o los haga sentir inseguros, para tratar de utilizar la empresa como una plataforma personal, o para luchar por cuestiones preocupantes o para debatir políticas», escribió.
Los comentarios de Pichai parecen referirse a los 28 empleados despedidos esta semana por protestar por los tratos de Google con el gobierno israelí; sin embargo, no tenemos ninguna duda de que también se aplican al campo minado ético en el que se encuentra rápidamente el campo de la IA. ®