93 729 90 39 bggroup@bggroup.es
www.bggroup.es

Yoshua Bengio: “Humanizamos demasiado a los ordenadores”

Yoshua Bengio: “Humanizamos demasiado a los ordenadores”

Yoshua Bengio

Experto en inteligencia artificial. Profesor de la Universidad de Montreal, está considerado como una referencia mundial en el campo del aprendizaje intuitivo de las máquinas.

Yoshua Bengio (París, 1964) se emplea a fondo en algo que hace unas décadas habría parecido inverosímil: diseñar un sistema que permita que los ordenadores aprendan, teniendo como referencia el funcionamiento de nuestro cerebro. Es profesor de informática en la Universidad de Montreal desde 1993, donde dirige el Instituto para Algoritmos de Aprendizaje. La ciudad canadiense se está convirtiendo en un centro de renombre en temas de inteligencia artificial y en parte se lo debe a Bengio, tanto por sus trabajos como por el apoyo que brinda a diversos investigadores.

Bengio integra, junto con Geoffrey Hinton (Universidad de Toronto) y Yann LeCun (Universidad de Nueva York), el trío de expertos mundiales que están detrás del desarrollo del aprendizaje profundo [las llamadas redes neuronales artificiales], un enfoque toral en inteligencia artificial que se aplica ya en las redes sociales, en los vehículos de conducción autónoma y para diagnósticos médicos.

Yoshua Bengio, que se doctoró en Ciencias Informáticas en la Universidad McGill (Canadá) y pasó una temporada investigando en el Instituto Tecnológico de Massachusetts (EE UU), aborda en esta entrevista el funcionamiento del aprendizaje profundo, el grado de intuición de los ordenadores y la necesidad de reflexionar sobre el uso inadecuado de la inteligencia artificial.

PREGUNTA. ¿Qué es el aprendizaje profundo?

RESPUESTA. Es un aprendizaje automático que permite a los ordenadores aprender a partir de ejemplos y construir sistemas inteligentes. Este enfoque particular se distingue de otros aprendizajes en que los algoritmos usados se inspiran en las redes de neuronas. Decimos que es profundo porque los cálculos se efectúan a través de diferentes niveles de transformación de datos, de distintas capas, como nuestro cerebro.

P. ¿Cuentan ya los ordenadores con un cierto grado de intuición?

R. Creo que el mayor avance de la inteligencia artificial en los últimos años, gracias al aprendizaje profundo, ha sido justamente permitir a un ordenador aprender sobre un tema pero de una forma más intuitiva. Los humanos adquirimos conocimientos a través de la observación, de la educación, de la interacción con nuestro medio. Es un proceso complejo. Por ejemplo, cuando miramos la imagen de una silla sabemos qué es sin tener que pensar en la respuesta. Es automático. La intuición se construye según nuestra experiencia. En el aprendizaje profundo rige el mismo principio.

P. ¿Por qué muchos investigadores insistieron durante décadas en la programación, en vez de concentrarse en otras formas de aprendizaje de los ordenadores?

R. Creo que, en la concepción de la inteligencia, fue un error darle demasiada importancia, durante muchos años, a la capacidad de razonar y de resolver ecuaciones. De ahí que se pusiera tanto el foco en la programación. El problema es que muchos de los conocimientos que queremos inculcar al ordenador tienen forma de intuición. Pensemos otra vez en una silla. El ordenador aprende a identificarla mirando muchas imágenes, a través de las distintas capas, en vez de darle una definición.

P. ¿En qué aspectos de nuestra vida cotidiana podemos ya constatar el uso del aprendizaje profundo y en qué otros lo veremos en el futuro?

R. Está presente en muchos ámbitos. Facebook usa el aprendizaje profundo para sus recomendaciones y notificaciones. Lo utilizamos cuando buscamos imágenes en Internet, y YouTube lo aprovecha para proponer contenidos a los usuarios. Está en los asistentes personales de voz, como Siri y Cortana. En Montreal realizamos investigaciones importantes relacionadas con la traducción automática en Google. Pensemos también en los vehículos de conducción autónoma. En el futuro, por dar algunos ejemplos, veremos un mayor uso del aprendizaje profundo para las interacciones con el ordenador, lo que permitirá que sean más directas, que y para que mejoren las respuestas. En medicina ya se están consiguiendo resultados sorprendentes. Y esto es solo la punta del iceberg. Se podrán reconocer células cancerígenas con mayor precisión, además de trabajar más con datos genéticos.

P. Usted ha afirmado, al igual que otros científicos, que los ordenadores continúan siendo “estúpidos”. ¿Por qué se ha sobredimensionado su inteligencia?

R. Por los medios de comunicación, por la ciencia-ficción y, también, es importante decirlo, por la proyección psicológica de nuestros miedos. Imaginamos ordenadores que actúan o actuarán como nosotros. Les otorgamos demasiadas características humanas. Es una distorsión de la realidad. Pensamos que podrían tomar el control. Es una mera proyección. No hay que olvidar que los ordenadores son diseñados por nosotros; no evolucionan solos. Esa es la diferencia.

P. Al mismo tiempo, usted ha insistido en distintos foros sobre los riesgos de la inteligencia artificial. ¿De qué debemos preocuparnos y por qué?

R. Hay que preocuparse si hay mal uso de la inteligencia artificial. Por ejemplo, si es utilizada para crear armas letales autónomas, si los Gobiernos autoritarios intentan controlar a los ciudadanos con ella. También puede ser empleada para manipular a la gente a través de la propaganda política. Debemos vigilar todo lo que suponga una amenaza para el bien común y el respeto a los individuos. La inteligencia artificial no debe ser utilizada para reemplazar las decisiones que los seres humanos tomamos sobre asuntos delicados basándonos en juicios éticos. Por dar un ejemplo, un ordenador no debería decidir quién debe, y quién no, salir en libertad condicional.

P. ¿Qué impacto cree usted que tendrá la inteligencia artificial en la esfera laboral y cómo podríamos reducirlo?

R. Es muy posible que se produzca un impacto mayor en el mundo laboral. Pero no veo un escenario de desempleo a largo plazo. Siempre habrá actividades que los seres humanos realicen mejor. Pienso, por ejemplo, en cuidar a un niño, a un enfermo, en trabajos creativos. Habrá una transición y puede que sea muy rápida. Las personas que lleven ahora entre 5 y 15 años trabajando puede que tengan dificultades para adaptarse a los nuevos procesos de automatización. Habrá que plantearse la creación de una red de protección social para atender a estas personas. En caso contrario, pueden aparecer problemas sociales y políticos.

P. Las grandes compañías contratan a muchos investigadores especializados en inteligencia artificial con salarios muy altos. ¿Cómo pueden las universidades y los Gobiernos conservar esta fuerza intelectual?

R. Los países o las universidades que quieran protegerla pueden tratar de competir creando cátedras y ofreciendo unas buenas condiciones para los profesores y los investigadores. Canadá lo está haciendo. Otro aspecto importante es recalcar que no todo depende del dinero. Hay que motivar a la gente para que quiera trabajar en la universidad, trabajar por el bien común, en proyectos que puede que no tengan una rentabilidad inmediata, pero que sí pueden tener un impacto positivo en la gente. Lo que hacemos en las universidades pertenece a la humanidad. No es propiedad de una sola empresa u organización.


Fuente: https://elpais.com/tecnologia/2018/01/31/actualidad/1517414138_178647.html

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *