Lanza Google su propia IA

por Redaccion
180 Visto
  • No ha querido quedarse atrás y luego de anunciar su Chatbot Bard ahora lanza Multisearch en medio de la carrera por la IA

2023 no solo inició con despidos masivos en las grandes empresas de tecnología globales, también con un nuevo tema en la conversación: la carrera por la inteligencia artificial generativa. Microsoft hizo la primera gran movida con una inversión de miles de millones de dólares (trascendió que serían 10,000 millones) en ChatGPT, un chatbot creado por OpenAI que provocó un hype durante el cierre de 2022 y principios de este año. Google ya respondió.

¿Qué hace ChatGPT?  Se trata de un chatbot que vio la luz el 30 de noviembre de 2022 y que genera texto automáticamente de forma mucho más avanzada y creativa que los chatbots antes vistos en Silicon Valley. Es un modelo con más de 175 millones de parámetros y está entrenado con grandes cantidades de texto para realizar tareas realizadas con el lenguaje, desde la traducción hasta la generación de textos coherentes e informados.

¿Por qué es importante? La inteligencia artificial generativa está apenas en sus inicios y todavía le falta madurar, pero sus posibilidades de negocio ya emocionan a más de una compañía. Los chatbots avanzados serán una verdadera mina de oro cuando sean combinados con los datos que recaban las empresas. Por ejemplo, una marca de autos podrá fusionar imágenes de su logo y modelos de coches en Dall-E para crear comerciales más económicos. Su potencial, por supuesto, está por verse en medio de una economía tecnológica dañada.

¿Por qué le interesó a Microsoft? Microsoft pretende mejorar ChatGPT e integrarlo a su motor de búsqueda Bing y a su navegador Edge para mejorar los resultados de búsqueda, ofreciendo incluso citas verificables y respuestas mejor informadas. Actualmente el nuevo Bing se encuentra en una fase de prueba limitada, con planes de liberarse de forma masiva más adelante.  El navegador Edge resúmenes de páginas web y un asistente de escritura potenciado por inteligencia artificial.

Esto, por supuesto, impacta de forma directa en el negocio de Google, que hace mucho desbancó a Microsoft como el motor de búsqueda y navegador preferido por los usuarios de internet, pero también por los anunciantes que pagan para que sus enlaces patrocinados aparezcan en el top de los resultados de búsqueda. Por eso Google no se quedó quieto y reaccionó ante la primera movida de Microsoft.

¿Qué hizo Google? El pasado lunes 6 de febrero el CEO de Google y Alphabet, Sundar Pichai, anunció el lanzamiento de su chatbot Bard en un blog titulado “Un importante próximo paso en nuestro camino de Inteligencia Artificial”. Por ahora, dijo el directivo, está abierto para “evaluadores de confianza antes de que esté disponible para el público en las próximas semanas”.

¿Qué hace Bard? Pichai explicó que “Bard busca combinar la amplitud del conocimiento del mundo con el poder, la inteligencia y la creatividad de nuestros modelos de lenguaje a gran escala. Se basa en información de la web para proporcionar respuestas actualizadas y de alta calidad”. Como ejemplo dijo que su chatbot puede ayudar a explicar los descubrimientos del Telescopio Espacial James Webb de la NASA a un niño de 9 años, o aprender más sobre los mejores delanteros del futbol del momento, y así desarrollar sus habilidades.

Eso no fue todo. Este miércoles desde París, Google anunció otras herramientas habilitadas por la inteligencia artificial generativa. Por ejemplo, una nueva forma de buscar con texto e imágenes al mismo tiempo, llamada Multisearch. Los usuarios podrán mostrarle a Google una imagen de lo que quieren encontrar y recibirán resultados inmediatos sobre dónde encontrarlo e incluso dónde comprarlo si se trata de un producto.

Por ejemplo. Los usuarios podrán conocer los horarios de servicio de un local (museo, oficina, cine, restaurante, tienda, etcétera) con solo tomarle una foto a la fachada y mostrársela a Google. Si están en una tienda de ropa, podrán tomarle foto a cierta prenda de su interés, mostrársela a Google y decirle “quiero este vestido rojo, pero en color verde” y el motor de búsqueda les arrojará resultados.

Multisearch funciona por medio de Google Lens –disponible en Android y iOS– cuando las personas buscan en Google a través de la cámara o imágenes en su celular. Además, en los próximos meses, se expandirá a imágenes en la web a nivel mundial en dispositivos móviles. También se habilitará la función de “buscar en tu pantalla”, con la cual, puedes buscar lo que ves en fotos o videos en sitios web y aplicaciones, sin tener que abandonar la aplicación o el sitio. Esta función estará en todos los idiomas en los que Lens esté disponible.

Google ofrece otros casos de uso. “Con esta herramienta puedes hacer preguntas sobre un objeto que tengas enfrente: toma una fotografía de la tela de un sillón que te guste y busca opciones de ‘papel tapiz’ que tengan el mismo grabado. Toma una foto de algún alimento, por ejemplo, de algún chile y agrega ‘tipo de chile’, para saber específicamente qué características tiene. Toma foto de un establecimiento, por ejemplo, un museo, y añade horarios, para conocer el horario en que está abierto al público”.

Más lanzamientos. En su evento de este miércoles desde París Google también anunció una versión más inmersiva de Google Maps, que se implementará primero en 5 ciudades: Londres, Los Ángeles, Nueva York, San Francisco y Tokio. Además Live View en interiores se está expandiendo a más de 1,000 nuevos aeropuertos, estaciones de tren y centros comerciales en ciudades alrededor del mundo, incluyendo Londres, París, Berlín, Madrid, Barcelona y más.      infobae.com

You may also like