Filosofia Inteligencia
Filosofia Inteligencia
Pentalfa Ediciones
Oviedo 2024
Carlos M. Madrid Casado (español nacido
en Madrid, 1980) es licenciado en Matemáticas
y doctor en Filosofía por la Universidad
Complutense de Madrid. Funcionario del Estado
que ejerce como profesor de Matemáticas de
Bachillerato. Ha sido profesor de Estadística en
la Universidad Complutense y actualmente es
investigador asociado de la Fundación Gustavo
Bueno. Ha participado en congresos nacionales
e internacionales, pronunciando conferencias en
distintas universidades y en el Museo del Prado.
Entre sus últimas publicaciones destacan los
libros Fisher. La estadística, entre la matemática
y la experiencia (RBA, Barcelona 2017) y
Filosofía de la Cosmología. Hombres, teoremas
y leyes naturales (Pentalfa, Oviedo 2018).
Para actuar inteligentemente
se necesita algo más que inteligencia.
a) Sobreajuste u overfitting:
Primeramente, conforme el volumen de datos crece en una
tendencia, el sistema se vuelve más y más reacio a aprender algo nuevo
o inesperado.42 Los datos del mundo real cambian continuamente,
pero el algoritmo se satura hasta que la nueva tendencia pese tanto
como la anterior para corregirla (así, el algoritmo de Facebook o
Youtube siempre nos enseña noticias o vídeos de un cierto color o
temática, encasillándonos en una burbuja de filtro como consecuencia
de nuestros anteriores clics, a pesar de que puedan interesarnos otros
temas o hayan cambiado nuestros intereses). Y lo que es peor: cuando
entrenamos al sistema para una nueva tarea, se produce el denominado
«olvido catastrófico», por el que el sistema aprende la nueva tarea a
costa de olvidar la antigua. Hay, en suma, una dependencia sustancial
de los datos de entrenamiento. Pensemos, por ejemplo, en el chatbot
Tay que Microsoft lanzó en 2016 y que terminó repitiendo como
un papagayo los mensajes racistas y nazis con que los usuarios le
troleaban y, de paso, le entrenaban.
En relación con esta cuestión, aparece el problema del
sobreentrenamiento y del sobreajuste, por el que el sistema de IA
predice muy bien sobre los datos de entrenamiento pero fracasa
estrepitosamente sobre cualquier otro dato de prueba que no se parezca
a ellos. El modelo acierta con el 100% de los datos de entrenamiento
pero sólo con el 50% de los datos reservados (aleatoriamente) para
evaluación (y cuya distribución debe ser idéntica al grueso de datos
de entrenamiento), cuando debería acertar el 75% sobre ambas clases
de datos (Domingos 2012, 84). En lugar de aprender rasgos generales,
el modelo termina simplemente memorizando una gran batería de
ejemplos concretos, al fijarse en detalles particulares de los datos
de entrenamiento que no se aplican a nuevos conjuntos de datos.
Por esta razón, un modelo bien ajustado no siempre va a generalizar
correctamente. Los métodos de aprendizaje automático son propensos
a ajustarse en exceso a los datos de entrenamiento (modelizando hasta
el ruido inherente), no siendo fiables en la predicción a partir de datos
fuera del rango de entrenamiento. Si entrenamos a una red neuronal
con imágenes de gatos para que reconozca las diferentes razas y, de
repente, le proporcionamos una imagen de un perro xoloitzcuintle
(perro sin pelo de México), lo más probable es que la red neuronal lo
clasifique como un gato sphynx (gato sin pelo del Canadá). Este caso
sirve también para ilustrar el problema del sesgo en los datos del que
hablaremos al abordar los aspectos éticos de la IA (si entrenamos a una
red neuronal sólo con imágenes de gatos, la red tenderá a ver gatos en
todas las imágenes que se le suministren). Por esta razón, buscando
contrapesar el sesgo con la dispersión (Madrid Casado 2017a, 76-77,
cuadro «Sesgo y eficiencia»), se tiende a emplear métodos que no
sean demasiado flexibles en el sentido de adaptarse a cualquier patrón
presente en los datos de entrenamiento, o, en caso de que lo sean,
como las redes neuronales, se tiende a entrenarlas y evaluarlas con una
cantidad descomunal de datos para evitar el sobreajuste toda vez que el
muestreo es variado al ser masivo, aun con el coste que eso conlleva.
Los algoritmos detrás del aprendizaje automático comprimen
los datos, captando muy bien las regularidades y realizando
generalizaciones; pero a veces pasan por alto datos atípicos o anomalías,
esto es, los cisnes negros, las novedades. De hecho, la dificultad que los
métodos de IA relacionados con el aprendizaje automático presentan
para hacerse cargo de los datos anómalos es lo que está detrás del
retraso en el desarrollo de los coches completamente autónomos.
Una cosa es reconocer visualmente una bicicleta, cuyo movimiento el
sistema puede predecir, y otra cosa reconocer una bicicleta en la baca
de un coche o en el portabicicletas del maletero, cuyo movimiento ya
no es el esperado (en el último caso, la bicicleta no se mueve hacia
delante sino transversalmente).43 Estas y otras situaciones límite,
como conducir con tráfico denso, gran velocidad, mal tiempo o en
zonas carentes de mapas detallados, así como reaccionar al carácter
impredecible y, en ocasiones, temerario de los conductores humanos,
están retrasando el desarrollo de vehículos totalmente autónomos.
c) IA y medicina:
Por desgracia, la confusión entre correlación y causación aún se
constata entre muchos de los que profetizan que la IA va a revolucionar
la medicina y la atención sanitaria, cambiando nuestras vidas. Forma
parte de lo que la OMS define como «eSalud» (eHealth), es decir, el uso
de tecnologías de la información y de la comunicación (las TIC) para
la salud (López Farré 2020, 35). Al respecto suele afirmarse que la IA
está automatizando el diagnóstico (la atribución de una enfermedad a
los síntomas del paciente), la prognosis (la predicción de la evolución
del estado del enfermo) y el seguimiento (Estany & Casacuberta 2021,
Parte IV). En su día, en la década de los 70, ya se aplicó la vieja y
buena IA simbólica en medicina: MYCIN era un sistema experto que
diagnosticaba enfermedades infecciosas en sangre, proporcionando un
grado de certeza y sugiriendo las dosis de medicamentos apropiadas
para cada paciente. El programa no se basaba en datos sino en unas
500 reglas que representaban el corpus de conocimiento médico
en forma de preguntas que el doctor iba contestando afirmativa o
negativamente en función de su observación del paciente. Pese a su
porcentaje de acierto, el sistema no llegó a comercializarse debido a
problemas legales relacionados con quién sería el responsable en caso
de un diagnóstico erróneo. Obermeyer & Emanuel (2016) subrayan
que la mayoría de sistemas computacionales empleados en medicina
son todavía sistemas expertos. En la última década, IBM invirtió en
perfeccionar Watson, la IA famosa por vencer al juego televisivo del
Jeopardy!, para aplicarlo al campo sanitario: Watson fue entrenado
para prescribir tratamientos oncológicos en función del historial
clínico del paciente y del análisis de big data clínicos. Pero un fallo
sucedido en un hospital de Dinamarca en 2017, donde Watson estuvo
a punto de prescribir un tratamiento descabellado y letal, así como
la falta de avances a la altura de lo anticipado por el marketing, han
llevado a IBM a venderlo a otra compañía.
Desde luego, el tratamiento de enormes bases de datos biométricos
(edad, datos clínicos, información genética, datos ambientales, pruebas
médicas) mediante aprendizaje automático va a incrementar la precisión
del diagnóstico (ya hay avances al respecto en la detección del cáncer,
patologías cardiovasculares y patologías neurológicas; Sánchez Caro
& Abellán García Sánchez 2021).46 Pero las predicciones basadas
en el descubrimiento de patrones estadísticos han de ser explicadas
por la «ciencia médica» (no por la «ciencia de datos»), aportando
explicaciones causales de los mecanismos biológicos involucrados
en la enfermedad. Encontrar correlaciones en la jungla de datos no
implica, empero, que medien relaciones de causalidad.
Un ejemplo estrella de correlación espuria en datos biomédicos
nos lo proporciona el sistema de detección de neumonía compatible
con la COVID-19 en que trabajaban Miriam Cobo Cano & Lara
Lloret Iglesias (2023, 61-64). El sistema funcionaba muy bien, pero
las investigadoras descubrieron, mediante la técnica de los mapas de
calor, que a la hora de analizar una radiografía de tórax el algoritmo
se fijaba más en la posición de los hombros que en la presencia de
manchas en los pulmones. La razón era sencilla, aunque sorprendente:
un paciente aquejado de neumonía tendía a hacerse la radiografía
encogido de hombros. Desde luego, este patrón está correlacionado
con tener neumonía, pero, de nuevo, correlación no implica causalidad
(encogerse de hombros no es la causa de padecer neumonía sino, más
bien, al revés, el efecto).
De otra parte, los sistemas con IA fallaron durante la pandemia de
COVID-19 en la predicción de su curso, así como en el diagnóstico
de la enfermedad, precisamente por la carencia de buenos conjuntos
masivos de datos, como consecuencia de lo inesperado de la misma
(Chakravorti 2022). Por otro lado, en febrero de 2013, Google Flu
Trends predijo erróneamente más del doble de visitas al médico por
síntomas relacionados con la gripe. Como señalan Lazer & al. (2014),
este sonoro error mostró que el tamaño no importa, o por mejor decir,
que no siempre se trata de usar big data. Pues unas veces –caso del
COVID– podemos no tener una cantidad suficiente de datos y otras
veces –caso de la gripe–, aunque tengamos muchos datos, estos
pueden no ser representativos o relevantes (en ocasiones, añadir datos
y más datos es como añadir epiciclos).
El aprendizaje automático sobre datos masivos no resuelve el
problema de la inferencia causal en medicina: los algoritmos pueden
ser muy buenos prediciendo resultados, pero los predictores no tienen
por qué ser las causas. Además, las redes neuronales del aprendizaje
profundo, que por su gran número de pesos ajustables son idóneas
para aprehender distribuciones en espacios de alta dimensión ligadas a
tareas complejas relacionadas con el cómputo de grandes conjuntos de
datos clínicos etiquetados, pueden predecir correctamente qué le pasa
al paciente, pero las variables intermedias que emplean para realizar
el diagnóstico pueden ser ininteligibles, al no ser asimilables a las
propiedades morfológicas en que se fija el médico y cuyo papel trata
de comprender para intervenir con el tratamiento (Ríos Insua & Gómez
Ullate 2019, 74). En otras palabras, las redes neuronales multicapa
funcionan como «cajas negras», donde no siempre resulta fácil explicar
por qué toman la decisión que toman. Y a ningún paciente le gustaría
que le diagnosticaran sin que el médico pueda explicarle por qué tiene
o deja de tener cierta enfermedad («el ordenador me ha dicho esto, pero
no sé decirle por qué ha tomado esa decisión clínica sobre usted»).47 La
IA posibilita procesar más rápido y mayor cantidad de datos, pero puede
conducir al reconocimiento de patrones irrelevantes o incomprensibles.
Además, como sugiere Aschwanden (2020), la IA, con su
capacidad para arrojar correlaciones insospechadas, puede empeorar
el sobrediagnóstico y el sobretratamiento (la hipermedicación) sobre
falsos positivos, como consecuencia de que se empiece a tratar a un
paciente sólo porque ha dado positivo en cierta correlación entre
variables biomédicas.
En 2016, Geoffrey Hinton, padre del deep learning, predijo que
los radiólogos serían sustituidos por IAs en menos de una década. En
2022, la Unión Europea ha dado luz verde al uso de un sistema con
IA que examina las radiografías de tórax sin contar con un radiólogo,
salvo cuando aquellas presentan anomalías o son dudosas, en cuyo
caso son revisadas por uno (Cobo Cano & Lloret Iglesias 2023, 12).
Transcurrido ya más de un lustro del vaticinio de Hinton, estamos más
cerca de la simbiosis que de la sustitución. La IA no va a sustituir a
los radiólogos, porque un radiólogo no sólo sabe clasificar imágenes
–tarea que el aprendizaje profundo realiza estupendamente–, sino
sobre todo razonar, en situaciones de ambigüedad, a tenor de la
imagen médica, la historia del paciente y el conocimiento establecido,
así como realizar diagnósticos y tomar decisiones en cuanto al
tratamiento. A lo sumo, como sugieren Chan & Siegel (2019), la IA
favorecerá una nueva generación de radiólogos con conocimientos en
ciencia de datos (estadística).
Como apostilla Luis Martín Arias (2023), la medicina, a diferencia
de la biología, no es una ciencia sino una praxis tecnológica, donde
el saber hacer del médico está dirigido in recto a la individualidad
corpórea del paciente, al paciente individual y concreto (con su ojo
clínico). Por ello, noticias como la que se dio a conocer en mayo de
2023 respecto a que ChatGPT había pasado con éxito un examen de
medicina de la Universidad de Harvard, olvidan la diferencia entre saber
de biología y practicar la medicina. La IA es una herramienta auxiliar
en el saber hacer con el paciente, a la hora de realizar diagnósticos
(detección de melanomas, mamografías asistidas por IA para detectar
nódulos cancerígenos), pronósticos (estimación del número de días que
un enfermo va a pasar en un hospital de cara a optimizar la gestión
asistencial) y tratamientos personalizados (el sistema AIDD usa IA
para el descubrimiento de nuevos fármacos buscando correlaciones
entre compuestos químicos y efectos sobre enfermedades, robots
inteligentes usados en cirugía). Para Martín Arias (2023), serán
aquellos médicos envueltos en la ideología tecnocrática que reduce la
corporeidad del paciente a un mero dato estadístico los que, sin duda,
podrán ser sustituidos por máquinas. Pero no lo serán aquellos médicos
que mantengan el contacto con el cuerpo y la salud del paciente. La IA
podrá automatizar algunas tareas médicas pero no absolutamente todas,
de manera que más que ignorar o sustituir, se trata de caminar hacia una
simbiosis entre médicos y máquinas.
Y Bueno (1996b, 163) añadía con palabras que casi tres décadas
después siguen de permanente actualidad:
Una de las críticas más fuertes a estos modelos no corpóreos [de la IA] es
que un agente inteligente necesita un cuerpo para poder tener experiencias
directas con su entorno […] Sin un cuerpo, estas representaciones abstractas
no tienen contenido semántico para la máquina […] En otras palabras, el
cuerpo da forma a la inteligencia (the body shapes the way we think) y por
lo tanto sin cuerpo no puede haber inteligencia de tipo general.
A su entender, los avances más prometedores en IA pasarían por
la robótica que persigue encarnar el software avanzado en agentes
equipados con sensores que les permitan interactuar con el mundo
entorno, integrando la percepción, la representación, el razonamiento,
la acción y el aprendizaje (López de Mántaras y Meseguer González
2017, 149-150).
Pero hay más. Como observa Alfredo Marcos (2020), las tareas
y los problemas, las contradicciones, lo son siempre para nosotros,
pues somos los seres humanos los que queremos realizar tal cómputo
o alcanzar tal meta. En ningún caso lo son para las máquinas, que
carecen de intencionalidad, de prolepsis y conducta apotética. Se
habla de machine learning, de aprendizaje maquinal, pero decir que
las máquinas aprenden es, en el fondo, una antropomorfización, porque
somos nosotros los que aprendemos con ayuda de las máquinas, con su
asistencia. Somos nosotros los que tenemos el problema, preparamos
los datos, seleccionamos y entrenamos el algoritmo, lo ejecutamos e
interpretamos los resultados. Si una máquina realiza un clúster con
datos médicos, es porque hay un grupo de médicos interesados en ello,
no porque la máquina quiera, ya que el sentido de la construcción está
en función de ese grupo de médicos y de los pacientes implicados.
Marcos (2023) emplea este quiasmo: la parte inteligente del sistema
no es artificial y la parte artificial del sistema no es inteligente. La IA
no es inteligente per se. Su inteligencia es la que sus inventores han
depositado objetivamente en ella. (Por consiguiente, como veremos más
adelante, la responsabilidad ética sigue siendo de los agentes humanos
–programadores, ingenieros y usuarios–, no de los propios sistemas de
IA.) Y es que para Bueno (1985b, 107):
a) Invasión de la privacidad:
La gran mayoría de sistemas con IA precisan de una concentración
masiva de datos (suele decirse que la IA es machine learning + big
data), cuyo empleo va con frecuencia por delante de su regulación
jurídica. No se trata sólo de la huella digital (a veces imborrable)
que dejamos al navegar por Internet,60 en las redes sociales o en los
sistemas de videovigilancia con reconocimiento facial de las grandes
ciudades (en China, ya existen millones de videocámaras de seguridad
instaladas en las calles), y que puede afectar a nuestra reputación
(¡cuántas veces los medios de comunicación sacan a la luz un antiguo
comentario escrito en una red social o una antigua grabación con
cámara oculta de un personaje público con el fin de desprestigiarlo!),
sino de que en el vasto océano de los datos puede tal vez encontrarse
un retrato a cuerpo entero de cada uno de nosotros.
Por ejemplo, los sistemas de recomendación de contenidos,
como canciones o vídeos en el móvil, usan información personal del
usuario (búsquedas, interacciones, preferencias, ubicación…), que
puede ser recogida, retenida, revelada o vendida a terceros por parte
de la empresa que presta el servicio. Pero hay más. En función de los
permisos concedidos por el usuario, los asistentes virtuales por voz
(Siri, Alexa, Cortana…) pueden, mediante sus micrófonos inteligentes,
«espiarnos» día y noche, con la intención de servirnos, pero también muy
probablemente con el propósito de ofrecernos publicidad en función de
las palabras que pronunciemos («móviles», «zapatillas», «viajes»).61 El
denominado «Internet de las cosas» ha traído que hasta los sensores de la
Smart TV puedan enviar información privada a la compañía fabricante,
pues el dispositivo permanece en escucha atenta las 24 horas del día, a la
espera de que le demos la orden de ponerse en marcha.
Google, Microsoft, Apple, Meta, Amazon y otros gigantes de Internet
nos ofrecen servicios gratuitos a cambio de recopilar nuestros datos para
ofrecernos mercadotecnia de precisión en sus aplicaciones (Facebook o
Instagram son gratis porque voluntariamente regalamos nuestra privacidad
al usarlos), o para vender nuestros datos a terceros con motivo de campañas
publicitarias o, incluso, políticas. En efecto, en 2017, Roomba anunció
que vendería los datos almacenados por sus robots aspiradores (o sea,
los planos de nuestras casas), amparándose en que el usuario para usar el
aparato ha de aceptar la cláusula que les permite vender la información
personal recogida por el robot. Y si pasamos de la economía a la política,
conviene traer a colación a la desaparecida Cambridge Analytica, que
ofrecía asesoría electoral a partir de la predicción de rasgos ideológicos
de los usuarios de Facebook por medio del estudio de sus likes, a fin
de suministrarles propaganda política personalizada que les impactara
(la empresa ofreció en 2016 sus servicios a Trump, así como a ciertas
plataformas a favor del Brexit). Más aún, en 2013, Edward Snowden,
exempleado de la Agencia de Seguridad Nacional de EE.UU., reveló
que este servicio de inteligencia poseía un programa llamado PRISM
que recopilaba información de los usuarios de Google, Microsoft, Yahoo
o Youtube, con su aquiescencia millonaria, a fin de realizar tareas de
espionaje relacionadas con la seguridad nacional. Las herramientas de
aprendizaje automático permiten cotejar las bases de datos de distintas
aplicaciones o páginas web, logrando emparejar las cuentas de usuario,
de modo que sea posible identificarlo (es más, una investigación de
la Universidad de Helsinki ha demostrado que es posible identificar a
los usuarios por medio de sus patrones de tecleo, por las brevísimas
pausas que cada uno realizamos cuando pulsamos las teclas de nuestro
teclado). En suma, no es sólo que recopilan y acumulan sin nuestro
permiso explícito datos personales, sino que los emplean con fines que
en principio desconocemos y que pueden afectar a la determinación
operatoria de los individuos.
5.5 Geopolítica de la IA
31 de agosto de 1955
1. Computadoras automáticas
Si una máquina puede hacer un trabajo, entonces se puede programar
una calculadora automática para simular la máquina. Las velocidades
y las capacidades de memoria de las computadoras actuales pueden
ser insuficientes para simular muchas de las funciones superiores del
cerebro humano, pero el principal obstáculo no es la falta de capacidad
de las máquinas, sino nuestra incapacidad para escribir los programas
aprovechando al máximo lo que tenemos.
3. Redes neuronales
¿Cómo se puede disponer un conjunto de neuronas (hipotéticas)
para formar conceptos? Uttley, Rashevsky y su grupo, Farley y
Clark, Pitts y McCulloch, Minsky, Rochester y Holland, y otros, han
realizado un trabajo teórico y experimental considerable sobre este
problema. Se han obtenido resultados parciales, pero el problema
necesita más trabajo teórico.
5. Automejora
Probablemente una máquina verdaderamente inteligente llevará a
cabo actividades que bien pueden describirse como de automejora.
Se han propuesto algunos esquemas para hacer esto y vale la pena
estudiarlos más a fondo. Parece probable que esta cuestión también
pueda estudiarse de manera abstracta.
6. Abstracciones
Se pueden definir claramente varios tipos de «abstracción» y varios
otros menos claramente. Un intento directo de clasificarlos y describir
métodos mecánicos para formar abstracciones a partir de datos
sensoriales y de otro tipo valdría la pena.
7. Aleatoriedad y creatividad
Una conjetura bastante atractiva pero claramente incompleta es
que la diferencia entre el pensamiento creativo y el pensamiento
competente sin imaginación radica en la inyección de cierta
aleatoriedad. La aleatoriedad debe estar guiada por la intuición para
ser eficiente. En otras palabras, la conjetura guiada o la corazonada
incluyen la aleatoriedad controlada en un pensamiento ordenado.
Gastos estimados
6 salarios de 1200 7200$
2 salarios de 700 1400
8 gastos de viaje y de alquiler con un promedio de 300 2400
Gastos de secretaría y organización 850
Gastos de viaje adicionales 600
Contingencias 550
——
13.500$
Propuesta de investigación de C. E. Shannon
Referencias
El propósito de esta lista es que los que están en ella sepan quién
está interesado en recibir documentos sobre el problema. Las personas
primeramente apuntadas recibirán copias del informe del Proyecto de
Verano de Dartmouth sobre Inteligencia Artificial.
La lista consta de personas que participarán o visitarán el Proyecto
de Investigación de Verano de Dartmouth sobre Inteligencia Artificial,
o que se sabe que están interesadas en el tema [no todas las personas
enumeradas asistieron a la conferencia de Dartmouth]. Se está
enviando a la gente apuntada primeramente y a algunos otros.
Para el presente propósito, el problema de la inteligencia artificial
se toma como el de hacer que una máquina se comporte de maneras
que se llamarían inteligentes si un humano se comportara así.
Próximamente se publicará una lista revisada, por lo que cualquier
otra persona interesada en incluirse en la lista o cualquier persona que
desee cambiar su dirección debe escribir a:
John McCarthy, Departamento de Matemáticas, Dartmouth
College, Hanover, NH.
La lista consta de: [aparte de los nombres de los organizadores
anteriormente mencionados, aparecen Allen Newell, Warren
McCulloch, John Nash, Abraham Robinson, Norman Shapiro, John
G. Kemeny o Herbert Simon, entre otros interesados en EE.UU.,
Inglaterra y Canadá].
Anexo II
«Pause Giant AI Experiments: An Open Letter»
22 de marzo de 2023
Cuestiones de investigación
Ética y valores
Agüera y Arcas, Blaise (2021): «Do large language models understand us?»,
Medium, 16 de diciembre.
Agüera y Arcas, Blaise & Norvig, Peter (2023): «Artificial General Intelligence Is
Already Here», Noema, 10 de octubre.
Alvargonzález, David (2010): «La transdisciplinariedad como mito milenarista»,
Encuentros multidisciplinares, 34, 70-79.
Anderson, Chris (2008): «The End of Theory: The Data Deluge Makes the
Scientific Method Obsolete», Wired, 23 de junio.
Arkoudas, Konstantine (2023): «ChatGPT is no stochastic parrot. But it also
claims that 1 > 1», Medium, 15 de enero.
Aschwanden, Christie (2020): «Artificial Intelligence Makes Bad Medicine Even
Worse», Wired, 10 de enero.
Baños Pino, Carmen (2016): El problema de Molyneux desde el materialismo
filosófico, Pentalfa, Oviedo.
Belda, Ignasi (2011): Mentes, máquinas y matemáticas. La inteligencia artificial
y sus retos, RBA, España.
Benjamins, Richard & Salazar, Idoia (2020): El mito del algoritmo. Cuentos y
cuentas de la inteligencia artificial, Anaya, Madrid.
Borji, Ali (2023): «A Categorical Archive of ChatGPT Failures», Arxiv, 3 de abril.
Bostrom, Nick (2016 [2014]): Superinteligencia: caminos, peligros, estrategias,
Teell, España.
Bubeck, Sébastien & al. (2023): «Sparks of Artificial General Intelligence: Early
experiments with GPT-4», Arxiv, 22 de marzo.
Bueno, Gustavo (1972): Ensayos materialistas, Taurus, Madrid.
— (1978): «En torno al concepto de ‘ciencias humanas’. La distinción entre
metodologías α-operatorias y β-operatorias», El Basilisco, 2, 12-46.
— (1982): «Psicoanalistas y epicúreos», El Basilisco, 13, 12-39.
206 Carlos Madrid, Filosofía de la Inteligencia Artificial
— (2021): «Proposal for a Regulation of the European Parliament and of the Council
laying down harmonised rules on artificial intelligence (Artificial Intelligence
Act) and amending certain Union legislative acts», 21 de abril.
Crawford, Kate (2021): Atlas of AI. Power, Politics, and the Planetary Costs of
Artificial Intelligence, Yale UP, New Haven.
D. María, Álvaro (2024): La filosofía de Bitcoin. La caída del Estado, Deusto,
Barcelona.
Davis, Ernest (2023): «Machine Translate fails on simple sentences», página web
actualizada el 25 de marzo.
De Lorenzo, Javier (2020): Un mundo de artefactos, Trotta, Madrid.
Degli-Esposti, Sara (2023): La ética de la inteligencia artificial, CSIC, Madrid.
Diéguez, Antonio (2017): Transhumanismo, Herder, Barcelona.
— (2021): Cuerpos inadecuados, Herder, Barcelona.
Domingos, Pedro (2012): «A few useful things to know about machine learning»,
Commun. ACM, 55, 78-87.
— (2015): The Master Algorithm, Basic Books, Nueva York.
Dreyfus, Hubert (1965): «Alchemy and Artificial Intelligence», informe para la
corporación RAND (Santa Mónica, California).
— (1972): What Computers Can’t Do, MIT Press, Massachusetts.
— (1992): What Computers Still Can’t Do: A Critique of Artificial Reason, MIT
Press, Massachusetts.
Dreyfus, Hubert & Dreyfus, Stuart (1987): Mind Over Machine: The Power of Human
Intuition and Expertise in the Era of the Computer, Free Press, Nueva York.
EASA (2023): «EASA Artificial Intelligence Roadmap 2.0», European Union
Aviation Safety Agency, Colonia, mayo.
Echeverría, Javier (2010): «Tecnociencia, tecnoética y tecnoaxiología», Revista
Colombiana de Bioética, 5/1, 142-152.
Eloundou, Tyna & al. (2023): «GPTs are GPTs: An Early Look at the Labor Market
Impact Potential of Large Language Models», informe para OpenAI, 27 de marzo.
Estany, Anna & Casacuberta, David (eds.) (2021): Epistemología e innovación en
medicina, Plaza y Valdés, Madrid.
Floridi, Luciano (2013): «Distributed morality in an information society», Science
and Engineering Ethics, 19(3), 727-743.
— (2021): «The European Legislation on AI: a brief Analysis of its Philosophical
Approach», Philosophy & Technology, 34, 215-222.
— (2022): «Ultraintelligent Machines, Singularity, and Other Sci-fi Distractions
about AI», Lavoro Diritti Europa, 3/2022, 8 de noviembre.
— (2023a): «AI as Agency Without Intelligence: On ChatGPT, Large Language
Models, and Other Generative Models», Philosophy & Technology, 36, 15.
— (2023b): The Ethics of Artificial Intelligence, Oxford UP, Oxford.
Floridi, Luciano & Chiriatti, M. (2020): «GPT-3: Its Nature, Scope, Limits, and
Consequences», Minds and Machines, 30, 681-694.
Floridi, Luciano & Sanders, J. W. (2004): «On the Morality of Artificial
Agents», Minds and Machines, 14, 349-379.
208 Carlos Madrid, Filosofía de la Inteligencia Artificial
Latour, Bruno (1996): «Social theory and the study of computerized work sites»,
en W. J. Orlinokowski & al. (eds.), Information Technology and Changes in
Organizational Work, Chapman and Hall, Londres, 295-307.
Lazer, David & al. (2014): «The Parable of Google Flu: Traps in Big Data
Analysis», Science, 343, 1203-1205.
LeCun, Yann, Bengio, Yoshua & Hinton, Geoffrey (2015): «Deep Learning»,
Nature, 521, 436-444.
Llano Alonso, Fernando H. (dir.) (2022): Inteligencia artificial y filosofía del
derecho, Laborum, España.
López de Mántaras, Ramón (2016): «La inteligencia artificial y las artes. Hacia
una creatividad computacional», en El próximo paso. La vida exponencial,
BBVA, Madrid, 99-123.
— (2018): «El futuro de la IA: hacia inteligencias artificiales realmente
inteligentes», en ¿Hacia una nueva Ilustración? Una década trascendente,
BBVA, Madrid, 160-174.
— (2023): «Inteligencia artificial: grandes retos», conferencia en la Fundación
Ramón Areces, 14 de febrero.
López de Mántaras, Ramón & Meseguer González, Pedro (2017): Inteligencia
artificial, CSIC, Madrid.
López Farré, Antonio (coord.) (2020): La inteligencia artificial en la medicina del
tercer milenio. De la predicción al diagnóstico, Guillermo Escolar, Madrid.
López Moratalla, Natalia (2017): Inteligencia artificial. ¿Conciencia artificial?,
Digital Reasons, Madrid.
Lucas, John R. (1961): «Minds, Machines, and Gödel», Philosophy, 36, 112-127.
Luppicini, Rocci & Adell, Rebecca (eds.) (2009): Handbook of Research on
Technoethics, Volumen I, IGI Global, Hershey.
Madrid Casado, Carlos M. (2013): Hilbert. Las bases de la matemática, RBA,
Barcelona.
— (2015): «Estadística, eugenesia y fundamentalismo científico», El Basilisco, 45,
5-31.
— (2017a): Fisher. La estadística, entre la matemática y la experiencia, RBA, Barcelona.
— (2017b): Brouwer. Un geómetra entre la topología y la filosofía, RBA, Barcelona.
— (2018a): Filosofía de la Cosmología. Hombres, teoremas y leyes naturales,
Pentalfa, Oviedo.
— (2018b): «¿Qué son las matemáticas? La respuesta de la teoría del cierre
categorial», Berceo, 175, 163-184.
— (2020): «Filosofía de la Ciencia del Cambio Climático: modelos, problemas e
incertidumbres», Revista Colombiana de Filosofía de la Ciencia, 41, 201-234.
— (2022a): «Materialism, Logic, and Mathematics», en G. E. Romero & al.
(eds.), Contemporary Materialism: Its Ontology and Epistemology, Springer,
Suiza, 269-301.
— (2022b): «Filosofía de la Medicina: Gnoseología, Ontología y Bioética»,
intervención en las jornadas Tecnologías, Ciencias y Ars Medica, Facultad de
Medicina, Universidad de Valladolid, 8 de octubre.
210 Carlos Madrid, Filosofía de la Inteligencia Artificial
Conclusión..................................................................................................................149
Coda: Transhumanismo, inteligencia artificial y biotecnología...............................153
Anexo I. Propuesta para el proyecto de investigación de Dartmouth (1955)..........179
Anexo II. «Pausar los experimentos gigantes de IA: una carta abierta» (2023)...........195
Anexo III. Principios de IA de Asilomar (2017)........................................................199
Anexo IV. Declaración transhumanista (2009).........................................................203
REFERENCIAS BIBLIOGRÁFICAS.........................................................................205