Google anima a sus empleados a automoderar su IA

A diferencia de ChatGPT, que ya inspira a los usuarios de Internet con enfoques, Google prefiere ir a lo seguro con su Conversational AI Bard. El motor de búsqueda sabe que todavía tiene trabajo por hacer y quiere tomarse su tiempo.

Bard todavía tiene algunos progresos que hacer

En un correo corporativo publicado por Business InsiderGoogle habría pedido a todos sus empleados estadounidenses que “de dos a cuatro horas” en su horario de trabajo para probar Bard, el robot conversacional de GAFAM. La nota, firmada por el CEO de Google, Sundar Pichai, alienta a sus empleados a “contribuir con más detalle“ al proyecto.

Hay que decir que cuando se dio a conocer la nueva IA de Google el 6 de febrero -sin duda para derribar la alfombra debajo de Microsoft, que acaba de anunciar la integración de ChatGPT en su motor de búsqueda Bing- es tan prometedor como inconcluso Presente . La inteligencia artificial ya se está aprovechando de esto “miles” probadores externos e internos. Una fase llamada “Comida de perro”, lo que resulta fundamental para empujar los límites de la máquina evitando errores y posibles desviaciones éticas.

Sin embargo, es importante recordar que, si bien la IA conversacional de Google aún no está disponible para el público en general, ya ha cometido algunos errores, sobre todo en una presentación oficial de la empresa en la que la tecnología basada en LAMDA afirmó que el telescopio James Webb había hecho “Las primeras imágenes de un planeta fuera de nuestro propio sistema solar”. La información de la NASA rápidamente contradijo que La primera grabación de este tipo data de 2004.del VLT (Very Large Telescope) del Observatorio Paranal en el Desierto de Atacama, Chile.

Cada vez más moderación

Ya sea ChatGPT o Bard, La IA todavía está en pañales. La inteligencia artificial de Google sabe que debe depender en gran medida de la moderación y la verificación de hechos para imponer su herramienta al público en general. Sobre todo porque, a diferencia de la tecnología Open AI, que se basa en una base de datos privada, LaMDA utiliza todos los datos accesibles en la web, con todos los riesgos asociados de desinformación y odio.

La moderación masiva, y sobre todo humana, parece, por tanto, afianzarse como una de las soluciones más fiables para la IA. Sin embargo, Open AI no habría dudado en entrenar a su robot gracias a los trabajadores kenianos mal pagados, enfrentándolos con afirmaciones que un estudio reciente consideró intolerables. Esperemos que Google no le dé a sus empleados el mismo trato.

Augusto Bojorquez

"Amante de la cultura pop sutilmente encantador. Evangelista de Internet. Solucionador de problemas de por vida. Entusiasta de la cerveza".

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *