Buscador
Ver revista digital
Tecnología

Crean IA que puede generar una noticia en un minuto con herramientas de Google Cloud

16-08-2023, 6:31:41 PM Por:
Inteligencia artificial
© Depositphotos

Sobre la regulación de la IA en México, Google considera que esta se encuentra aún en una “fase temprana” y, mientras tanto, se basan en sus principios éticos.

Google Cloud México presentó este miércoles algunos ejemplos de cómo sus herramientas de inteligencia artificial (IA) generativa pueden transformar digitalmente los negocios y reducir los tiempos de producción en empresas.

Una referencia que compartió la tecnológica fue la de Algorithia, una empresa de ingeniería de datos e inteligencia artificial que creó un prototipo llamado ‘Breaking News’ para una de las principales de empresas de medios del país.

En su primera iteración, ‘Breaking News’ optimiza la producción de contenido con base en las temáticas que están por convertirse en tendencia dentro de redes sociales.

Lo que están haciendo es reducir los tiempos de producción editorial en un 50%, han mostrado estabilidad y calidad. Crean una nota por minuto”, comentó a periodistas Julio Velázquez, director general de Google Cloud México.

El directivo agregó que esta solución puede ayudar a los periodistas a entender y reaccionar rápido ante lo que pasa en el mundo y generar una nota de alto impacto.

Esta solución fue impulsada con herramientas de inteligencia artificial generativa de Google como Vertex AI, Generative AI Studio; y la infraestructura de la Plataforma de Google Cloud.

¿Y qué es la inteligencia artificial generativa? Según la definición de Google, hace referencia al uso de la IA para crear contenido nuevo, como texto, imágenes, música, audio y videos. La IA generativa usa modelos base (modelos de IA grandes) que pueden realizar varias tareas a la vez y de manera predeterminada, como resúmenes, preguntas y respuestas, clasificación y mucho más. Además, con el entrenamiento mínimo necesario, los modelos base pueden adaptarse a casos de uso segmentados con muy pocos ejemplos de datos.

Julio Velázquez resaltó que abrir el acceso a la IA generativa a más organizaciones significa desbloquear nuevas oportunidades de negocio. Por ejemplo, citó una previsión de Gartner en la que, para 2025, el 30% de los mensajes de marketing de las grandes organizaciones se generarían sintéticamente con IA, frente al 2% que se generó en 2022.

Regulación en IA, aún en fase temprana

Durante una conferencia, el director de Google Cloud México hizo énfasis en que la IA se puede utilizar no para borrar trabajos, sino para transformarlos, y están comprometidos con adoptar un enfoque responsable que les permita a las organizaciones de todos los tamaños e industrias a innovar y desarrollar flujos de ingresos completamente nuevos.

En cuanto a la regulación de la IA en México, los directivos consideraron que esta se encuentra aún en una “fase temprana” y, mientras tanto, se basan en sus principios éticos.

Para regular algo, lo tienes que entender de manera profunda. Hay un gran proceso de educación y esa actividad lleva un tiempo indefinido”, consideró Velázquez.

Por su parte, David Ruiz, jefe de práctica de datos, análisis e inteligencia artificial en Google Cloud México, dijo que “en su momento”, la empresa dará su punto de vista sobre cuál debería ser la mejor forma de regular esta tecnología, pero también busca participar en discusiones sobre la regulación con las partes interesadas, como sector público, universidades y asociaciones.

Fernanda Jolo, directora de Ingeniería, Análisis de Datos e IA en Google Cloud Latinoamérica, afirmó que promueven entre sus clientes el uso de su inteligencia artificial basándose en sus principios éticos.

Estos son los siete principios éticos de Google sobre la Inteligencia Artificial, publicados en 2018:

1. Ser socialmente beneficioso

El alcance ampliado de las nuevas tecnologías afecta cada vez más a la sociedad en su conjunto. Los avances en IA tendrán impactos transformadores en una amplia gama de campos, incluidos el cuidado de la salud, la seguridad, la energía, el transporte, la fabricación y el entretenimiento. Al considerar el desarrollo potencial y los usos de las tecnologías de IA, tendremos en cuenta una amplia gama de factores sociales y económicos, y procederemos donde creamos que los beneficios generales probables superan sustancialmente los riesgos y desventajas previsibles.

2. Evitar crear o reforzar prejuicios injustos.

Los conjuntos de datos y los algoritmos de IA pueden reflejar, reforzar o reducir los sesgos injustos. Reconocemos que distinguir los sesgos justos de los injustos no siempre es simple y difiere entre culturas y sociedades. Buscaremos evitar impactos injustos en las personas, particularmente aquellos relacionados con características sensibles como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

3. Ser construido y probado para la seguridad.

Continuaremos desarrollando y aplicando sólidas prácticas de seguridad y protección para evitar resultados no deseados que generen riesgos de daño. Diseñaremos nuestros sistemas de IA para que sean debidamente cautelosos y buscaremos desarrollarlos de acuerdo con las mejores prácticas en la investigación de seguridad de la IA. En los casos apropiados, probaremos las tecnologías de IA en entornos restringidos y monitorearemos su funcionamiento después de la implementación.

4. Ser responsable ante las personas.

Diseñaremos sistemas de IA que brinden oportunidades apropiadas para comentarios, explicaciones relevantes y atractivo. Nuestras tecnologías de IA estarán sujetas a la dirección y el control humanos apropiados.

5. Incorporar principios de diseño de privacidad.

Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Brindaremos la oportunidad de notificación y consentimiento, fomentaremos arquitecturas con garantías de privacidad y proporcionaremos la transparencia y el control adecuados sobre el uso de los datos.

6. Mantener altos estándares de excelencia científica.

La innovación tecnológica tiene sus raíces en el método científico y el compromiso con la investigación abierta, el rigor intelectual, la integridad y la colaboración. Las herramientas de IA tienen el potencial de desbloquear nuevos campos de investigación y conocimiento científicos en dominios críticos como la biología, la química, la medicina y las ciencias ambientales. Aspiramos a altos estándares de excelencia científica mientras trabajamos para avanzar en el desarrollo de la IA.

7. Estar disponible para usos que estén de acuerdo con estos principios.

Muchas tecnologías tienen múltiples usos. Trabajaremos para limitar las aplicaciones potencialmente dañinas o abusivas. A medida que desarrollamos e implementamos tecnologías de IA, evaluaremos los usos probables a la luz de los siguientes factores:

  • Propósito y uso principal: el propósito principal y el uso probable de una tecnología y aplicación, incluido el grado de relación o adaptabilidad de la solución a un uso nocivo
  • Naturaleza y singularidad: si estamos poniendo a disposición tecnología que es única o más generalmente disponible
  • Escala: si el uso de esta tecnología tendrá un impacto significativo
  • Naturaleza de la participación de Google: si proporcionamos herramientas de propósito general, integramos herramientas para clientes o desarrollamos soluciones personalizadas

MÁS NOTICIAS:

autor Periodista. Finanzas públicas, energía, negocios, innovación y las historias que contienen.

Comentarios