Ventana Modal

Este contenido se reemplaza via ajax por el del html externo.

×

| 1/21/2020 7:15:00 PM

En Google piden ponerle límite a la inteligencia artificial. ¿Por qué?

Para el CEO de la compañía, Sundar Pichai, esta tecnología, así como trae grandes aportes para la vida de los seres humanos, puede tener consecuencias negativas.

En momentos en que la tecnología ha puesto a pensar a los gobiernos del mundo en una regulación que esté a favor del usuario y que no impida el desarrollo de la misma, Sundar Pichai, CEO de Google, ha dado unas declaraciones que dan muestra de la necesidad de regular esos avances.

En un artículo publicado en Financial Times, Pichai destacó los avances de Google en esta materia -esta es una de las compañías más destacadas en el desarrollo de herramientas de inteligencia artificial en áreas de la salud, cambio climático y aerolíneas- y la importancia de regular tecnologías como la inteligencia artificial (IA) dado su potencial y las posibles consecuencias negativas que podrían desencadenar de esta. “La inteligencia artificial es una de las tecnologías más prometedoras con potencial para mejorar miles de millones de vidas, pero la historia está llena de ejemplos que demuestran que las virtudes de la tecnología no están garantizadas”, escribió. 

Precisamente, Pichai señaló en el artículo que “hay verdaderas preocupaciones sobre las posibles consecuencias negativas de la IA, desde los deepfakes hasta usos nefastos del reconocimiento facial”. Y recalcó que empresas como Google no pueden crear nuevas tecnologías y dejar que “los mercados determinen cómo se usan”. “No tengo dudas que la inteligencia artificial necesita ser regulada. Es muy importante. La única cuestión es cómo hacerlo”, afirmó. 

Al respecto, señaló que la coordinación internacional será esencial para tener una regulación adecuada para este tipo de tecnologías y afirmó que las leyes existentes son una buena base para construir la normatividad futura. Propone que un buen marco regulatorio debe incluir temas de seguridad, transparencia, equidad y responsabilidad.  Así, para Pichai, las medidas adoptadas deberán tener en cuenta los posibles riesgos y amenazas que pueden derivarse del mal uso de las herramientas basadas en inteligencia artificial. 

También destacó la importancia de que las grandes tecnológicas reconozcan la necesidad de una regulación y la existencia de unos principios para la aplicación de la inteligencia artificial. “Creemos que cualquier empresa que desarrolle herramientas de IA también debería adoptar principios que guíen el desarrollo y procesos de revisión rigurosos”. “Ofrecemos nuestros conocimientos, experiencia y herramientas mientras nos enfrentamos juntos a estos asuntos”, agregó. 

La columna llega en momentos donde el mundo está planteando una regulación para las grandes tecnológicas teniendo como punto de base la protección del usuario. Incluso, el pasado lunes la Comisión Europea señaló que está evaluando la posibilidad de prohibir el uso de las tecnologías de reconocimiento facial en espacios públicos por un periodo de hasta cinco años con el objetivo de avanzar en el desarrollo de soluciones que mitiguen los riesgos para los ciudadanos.

EDICIÓN 562

PORTADA

¿Qué va a hacer Carrasquilla después de la regla fiscal?

Las últimas semanas han sido bastante agitadas desde la perspectiva empresarial y económica. El comité consultivo de la regla fiscal decidió conceder un margen de maniobra al Gobierno en materia de gasto y endeudamiento, al flexibilizar algunos puntos el nivel de déficit fiscal permitido para 2019 y 2020.

Queremos conocerlo un poco,
cuéntenos acerca de usted:

Maria,

Gracias por registrarse en DINERO Para finalizar el proceso, por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Maria,

su cuenta aun no ha sido activada para poder leer el contenido de la edición impresa. Por favor valide su correo a través del enlace que enviamos a:

correo@123.com
Su código de suscripción no se encuentra activo.