Felipe Gómez-Pallete, president of Calidad y Cultura Democráticas: “Estamos jugando a ser dios con la inteligencia artificial” | Technology

Felipe Gómez-Pallete, president of Calidad y Cultura Democráticas.

Felipe Gómez-Pallete, born in Reinosa (Cantabria) for 78 years, has been able to observe directives from large companies, such as Inditex or IBM, the effects of technologies that have taken time to ser nuevas. around The society of information. Riesgos y oportunidades para la empresa española (Ciencias de la Dirección, 1988) junto a autores tan destacados como Eduardo Punset, Emilio Fontela, José Luis Sampedro y Luis Racionero, entre otros, se embarka ahora en una nueva aventura editorial junto a Paz de Torres (exdirectiva de Cisco), con which also compares the direction of Calidad y Cultura Democráticas, an organization destined to facilitate ciudadana participation. Este nuevo trabajo, Que los árboles no te impidan ver el bosque: caminos de la inteligencia artificial (previsto para su publication en Círculo Rojo en octubre), approached the transformation of society from los systems and machines that imitan la forma de pensar humana. Considera que hay que anticipate y actuar ante algo tan prometedor como conflictivo. “Estamos jugando a ser dios”, advierte.

Pregunta. ¿Qué hay detrás de la inteligencia artificial?

Respuesta. Varias fuerzas. Una de ellas son los intereses económicos, no nos engañemos. También está el interés científico, cuya curiosidad no tiene límites. Y, después, el motor philosopher. El hombre siempre ha pretendido crear copias de él, incluso mejoradas. Uno de los authors que citamos [en el libro] afirma que lo hacemos por lo mismo que tenemos hijos. The drive that our muves are to feel our creators. Es como jugar a ser dios. Is lo que estamos haciendo. This will be the philosophical interpretation, pero la terrenal y potentísima es la de los intereses económicos que hay detrás de esto, como de cualquier tecnológica innovation.

p. Google sent to engineer Blake Lemoine to attribute feelings to an artificial intelligence program.

R. La inteligencia artificial no llegará a tener sentimientos. Se puede programar, convert into algorithms, todo lo que se conocimiento o ideas, pero los sentimientos, el sens humano, me parece absolutamente improgramable. Hace poco releí The world of ayer, by Stefan Zweig, donde afirma: “Sólo la ilusión, no el saber, hace al hombre feliz”. La illusion no se puede algoritmizar y, por tanto, no creo en estas pretendidas replicas transhumanas o poshumanas. A lo greater estamos confundiendo el deseo con la realidad porque, si fuera cierto, apaga y vámonos.

Se puede programar, convert into algorithms, todo lo que sea conocimiento, ideas, pero los sentimientos, el sens humano, me parece absolutamente improgramable

p. ¿Puede afectar la inteligencia artificial a la dignidad?

R. Is one of the aspects that más nos preocupa [a los autores del libro]. Dignity, freedom, social recognition…. Los advances en inteligencia artificial, de una u otra manera, pueden poner en riesgo o alterar estos valores. Rafael Yuste, who will lead the Brain project there asesoró to Obama, advises that hay advances that están cambiando la naturaleza humana. Es muy serio.

p. ¿Technology is neutral?

R. La tecnología no es neutral, es como una cerilla con la que puedes encender la vela de cumpleaños de tu hijo o incendiary el monte. Todo el proceso tecnológico que acaba crystalizando en un producto, sea una cerilla o un system de inteligencia artificial, responde a los intereses y a los valores del momento en el que se déarrolla. Y the artificial intelligence that has become confused responds to political, social and economic interests.

p. ¿Somos demasiado incautos a la hora de ceder nuestros datos?

R. Hace poco, en una reunion de amigos, uno de ellos dijo que le daba igual que lo vigilante, pero debería saber que, si te acuestas con alguien y el otro también tiene móvil, mucha gente va a saber cuándo, dónde y con quién has dormido, por decir algo mundano. Estamos dando toda suerte de datos de nosotros mismos, de nuestro comportamiento, de lo que nos gusta o no, de dónde estamos, de qué compramos…

Todos los advances en inteligencia artificial, de una u otra manera, pueden poner en riesgo o alterar los parámetros que conforman la dignidad

p. ¿Eso atenta a la dignidad de las personas?

R. Sí, entre otras cosas, porque invade tu privacidad. Socava you dignidad porque you come off of intimate arguments that explain you emptied. Esgrimir que facilitamos los datos personales que queremos dar es una verdad a media.

p. ¿La inteligencia artificial terminará destruyendo fuerza laboral?

R. Es una viejísima polémica. Llevo trabajando este tema desde los años ochenta, en el ámbito de las tecnologías de la información y la comunicación. Las tecnologías y, en concreto la inteligencia artificial, destroy y crea puestos de trabajo. Is obvious. Y el balance no está claro. Lluís Racionero decía que no nos rasguemos las vestiduras porque cada vez haya menos trabajo: no es un fracaso del capitalismo; Is the demostración de su éxito porque, if we understand por capitalismo la paulatina sustitución del factor trabajo por el factor capital, es lo que estamos haciendo, estamos sustituyendo el trabajo humano por formas de capital y esto es lo que hay.

p. ¿Es solo una cuestión de cantidad o, también, de calidad del trabajo?

R. Ambas. The substitution of the persona by algorithms modifies and reduces the possibilities of learning, so the machine “se queda” con circunstancias en la que y no puede de formation la persona porque le son opacas.

p. ¿Se puede regular la inteligencia artificial?

R. Los products, los systems and los servicios que han nacido en el laboratorio y están en el mercado hay que regularlos, evidentemente. Europa tiene mucho más músculo e interés que Estados Unidos o China, pero esa batalla hay que seguir dándola. Pero nuestro foco no lo ponemos en la regulation de los systems ya existentes de inteligencia artificial. Nosotros preguntamos: ¿no sería conveniente también poner la lupa de la regulation en el origen, en el inicio, en la investigación básica? ¿Es lícito para la humanidad investigar cualquier cosa, desarrollar cualquier cosa? Una de nuestras citas favoritas es esta de Margaret Boden: “Debemos tener mucho cuidado con lo que inventamos”. Esa es la clave, porque la tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde. ¿Por qué no explicamos los pros y los contras de regular la investigación básica, donde nacen los nuevos desarrollos? No hemos visto que haya interés ni foco puesto en la investigación, en el nacimiento del río. Our justifican que, a la postre, aportarán remedios. Pero no nos dicen la otra cara de la moneda: los enormes intereses económicos a los que responden.

Technology, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde

p. ¿Is the caso del metaverso?

R. ¿Quién va a crear el metaverso si no es porque, detrás de ello, hay un inmenso e unimaginable billonario cumulo de intereses económicos? ¿Se está haciendo para la felicidad de la humanidad? Can no. Entonces, ¿por qué no se dice así de claro?

p. ¿La ciudadanía puede hacer algo?

R. En nuestro libro hacemos una llamada a pertrechar a la ciudadanía con pensamiento filosófico e historico. If your training sober is the life and how transcurre a lo largo del tiempo, manejaremos estas oleadas tecnológicas de una manera mucho más comedida o conducentes a la felicidad humana.

p. ¿Significa que estamos buscando la felicidad en la tecnología cuando está en nuestra propia esencia?

R. Estamos mirando fuera y hay que mirarse dentro. La inteligencia artificial está prácticamente ausente del debate público y queremos lanzar un pequeño grito, movilizar a la sociedad civil, impulsar iniciativas que hagan que los ciudadanos exijamos más claridad, que no se esconda parte de lo que nos venden solo como un beneficio para la humanidad . No es así. Absolutely. De momento, destroy puestos de trabajo con la promesa de que crea otros muchos e invade la privacidad de las personas. Cambia la esencia del ser humano, como dice repetidamente Rafael Yuste. No somos contrarios a la inteligencia artificial y sus beneficios. Somos contrarios a que se venda parte de la verdad.

¿Se está haciendo el metaverso para la felicidad de la humanidad? Can no. Entonces, ¿por qué no se dice así de claro?

p. ¿Hay que introducir la ética en los primeros pasos de la tecnología?

R. In Estados Unidos, Francia, Italia o Canada prestan mucha atención, muchos recursos, mucho dinero y muchos investigadores a la ética aplicada a la inteligencia artificial. In Spain lo vemos, pero con menos vigor; es más parte de un discourso oficial, porque hay que decirlo, pero no veo grande impulsive de la ética en el campo de la inteligencia artificial entre nosotros, la verdad.

Puedes escribirnos a rlimon@elpais.esfollow a EL PAÍS TECNOLOGÍA in Facebook there Twitter y apuntarte aquí para recibir nuestra weekly newsletter

50% discount

Subscribe to seguir leyendo

Lee sin limits

Follow by Email
Telegram
WhatsApp
FbMessenger