Inteligencia artificial y datos: la Gran Revolucion

Artificial intelligence and data: the Great Revolution

Adimen artifizialaren historia eta hari lotutako kontzeptu nagusiak aurkeztuko ditugu lan honetan, labur-labur. Ikasketa sakonean egindako azken garapenak berrikusiko ditugu, eta algoritmo eta
aplikazioen eztanda berrian –Big Data eta 4.0 Industria barne hartuta– datuek izan duten funtsezko eginkizuna aztertuko dugu. Bukatzeko, datuen erabilerari lotutako arrisku etikoei buruzko eztabaida laburra egingo dugu.

 

Adimen artifiziala. Datuen zientzia. Neurona-sareak. Ikasketa sakona. Big data. 4.0 Industria.

1. Origen y breve historia de la inteligencia artificial

1.1. El concepto de inteligencia artificial

El concepto de una máquina inteligente es posiblemente tan antiguo como el propio concepto de máquina. Sin embargo, la idea de qué significa ser inteligente ha ido variando con el tiempo. Muy posiblemente, si en la Edad Media hubiéramos presentado una simple calculadora, muchos la habrían considerado como una máquina inteligente, aunque hoy en día nadie o casi nadie la calificaría de tal [Nil09] 

Si queremos fijar un origen para el concepto moderno, este podría situarse de manera algo convencional en la conferencia de Dartmouth, Hanover (EEUU) de 1956, que reunió a investigadores centrados en temáticas en torno a proble- mas que no encajaban dentro de la ortodoxia científica de la época [Mc55]. Hay que tener en cuenta que algunos de los desarrollos más importantes para la inteligencia artificial son anteriores a esa fecha, –los trabajos de Alan Turing, de los que hablaremos posteriormente, se desarrollan a lo largo de los años treinta del siglo pasado y la Segunda Guerra Mundial supuso un salto de gigante en muchos aspectos.

Es importante destacar que esta definición combina el concepto de ciencia con la idea de crear máquinas (es decir, el concepto de ingeniería). Es decir, la in- teligencia artificial no es una ciencia pura ni una ingeniería pura, sino una combi- nación de ambas y, por tanto, implica la realización tanto de estudios teóricos como de aplicaciones de los mismos. 

Antes de continuar, es necesario plantearse una pregunta. ¿Es posible que una máquina sea inteligente? Esta es una cuestión que, en principio, no admite una respuesta sencilla, ya que ni siquiera sabemos definir de forma precisa qué es la inteligencia y mucho menos explicar cómo se origina en los seres vivos. De hecho, en los últimos años se han dedicado grandes esfuerzos a entender el ce- rebro humano, pero aún estamos muy lejos de comprender sus mecanismos de funcionamiento. 

Con todo, es claro que cuando hablamos de comportamiento inteligente o inteligencia, de alguna forma u otra estamos requiriendo capacidades tales como las de percibir, aprender, razonar, actuar en entornos complejos, etc. Además, no podemos olvidar que tan solo disponemos de un ejemplo, la inteligencia humana, con lo que resulta muy difícil distinguir qué es específico de la inteligencia y qué es específico del caso humano, pero no imprescindible para la inteligencia. Por ello, hablar, por ejemplo, de máquinas inteligentes, no implica asumir que dichas máquinas deban ser inteligentes en el mismo sentido que lo es un ser humano. Para entender mejor esta relevante observación, consideremos la forma en que vuelan un pájaro y un avión. Nadie diría que este último lo hace como el primero, aunque las leyes en que se sustenta el vuelo de ambos (leyes físicas en este caso) son las mismas. Análogamente, cabe esperar que una máquina sea inteligente, en todo caso, en sentido máquina, aunque dicha inteligencia se base en unas leyes y conocimientos que actualmente aún no tenemos. 

Así pues, cambiemos el foco de nuestro estudio. Más que discutir si una má- quina es inteligente o no, vamos a plantearnos qué tipo de problemas sería capaz de abordar una máquina inteligente, o, de una manera más general, qué tipo de pro- blemas trata la inteligencia artificial. Resulta imposible una enumeración exhaustiva, pero en una primera aproximación. Más específicamente, la inteligencia artificial estudia métodos que permiten resolver problemas para los que no existe el conoci- miento sistemático para poder plantear una solución analítica. El mejor ejemplo de este tipo de problemas es el conocido problema del viajante: un viajante debe visi- tar una serie de ciudades, pasando por todas ellas una vez y regresando al punto de partida. Para cualesquiera dos ciudades a visitar, se conoce el coste que supone para el viajante ir de una a otra y se desea calcular la ruta que minimiza el coste para el viajante. Pues bien, no existe ningún resultado matemático que establezca cuál es dicha ruta optimal, y la mejor forma de hallarla es por medio de técnicas de in- teligencia artificial conocidas como búsquedas y que están en la base de muchas de las aplicaciones de la inteligencia artificial. Estas técnicas, aunque a veces son poco eficientes, tienen la ventaja de que se pueden aplicar a una gran clase de pro- blemas. Estos problemas pueden clasificarse en dos grandes grupos:

  • Problemas que no poseen una definición clara o cuya solución no es exacta o en los que el conocimiento sobre el dominio parece vago e impreciso, como el diagnóstico de enfermedades o el reconocimiento de imágenes.
  • Problemas en los que la búsqueda de la solución podría realizarse utili- zando un mecanismo bien definido, pero cuyo coste computacional re- sulta prohibitivo, como el juego del ajedrez.
  • Podemos clarificar a qué tipos de problemas nos referimos con algunos ejemplos, aunque en ningún caso pretendemos que la lista sea exhaustiva.
  • La conducción automática requiere del procesamiento a tiempo real de una enorme cantidad de datos, en muchas ocasiones imprecisos y que incluyen imágenes, sonidos, etc., y a partir de los que es necesario tomar decisiones (cómo debe desplazarse el vehículo, si debe acelerar o fre- nar,...) [Mey14,Mey15]
  • La identificación automática de rostros humanos también implica una gran cantidad de información que, en muchas ocasiones, es imprecisa de- bido a las características inherentes a las propias imágenes [Bus09]
  • El desarrollo de algoritmos para juegos complejos como el ajedrez o el go. En estos casos, es necesario, en cada situación del juego, analizar una enorme cantidad de posibles alternativas, determinando sus venta- jas e inconvenientes. Este análisis, en general, se lleva a cabo utilizando métodos de búsqueda como los comentados más  arriba.
  • El desarrollo de vehículos autónomos para le exploración espacial. Una sonda en Marte, por ejemplo, tarda varias horas en enviar una comuni- cación a la Tierra y recibir una respuesta. Por tanto, es necesario dotarle de algún tipo de mecanismo que le permita tomar decisiones más o menos complejas, como evitar obstáculos o determinar por sí mismo zonas de interés para la exploración.
  • La creación de sistemas expertos de ayuda al diagnóstico médico. No se trata de reemplazar al médico, sino de crear sistemas que liberen al pro- fesional de algunas tareas repetitivas o muy costosas temporalmente, como el análisis de imágenes o la clasificación de pacientes. Pero la in- formación contenida en las imágenes o sobre las pacientes puede ser en muchos casos incompleta, imprecisa o  ambigua.

De hecho, todos estos ejemplos se refieren a campos en los que en la ac- tualidad la inteligencia artificial ha supuesto una revolución, hasta el punto de que algunos de ellos, como la conducción automática, no habrían podido desarrollarse si no fuera por los grandes avances recientes en inteligencia artificial, en particu- lar en la manipulación inteligente de los datos. Aquí también sería necesario hacer una mención a la robótica, pero un estudio siquiera somero requeriría un nuevo artículo al respecto. 

La siguiente pregunta surge de forma natural. ¿Cómo puede abordar la inteligencia artificial estos problemas? Sin entrar en grandes detalles, que discuti- remos posteriormente, existen dos maneras fundamentales de enfocar el abordaje de estos problemas, denominados  paradigmas:

  • El paradigma simbólico considera los sistemas inteligentes como “cajas negras” que reciben datos y proporcionan una respuesta a par- tir de dichos datos. Los motivos que conducen a dicha respuesta no son relevantes en este para- digma, puesto que el interés se centra en la respuesta en sí. Desde este punto de vista, la inteligencia artificial desarrolla herramientas específicas para la resolución de problemas concretos, denomina- das algoritmos.
  • El paradigma conexionista parte de la tesis de que el único sistema inteligente que conocemos es el cerebro y, por tanto, los sistemas inteligentes deben imitar el sis- tema nervioso. Este paradigma se centra en la forma en que puede resolverse el problema y no solo en la solución en sí. 
  • Cabe destacar que el origen de ambos paradigmas se halla en los trabajos de un mismo autor, el célebre Alan Turing, a lo largo de la década de los 30 y los 40, si bien sus trabajos seminales sobre neuronas artificiales permanecieron ol- vidados en un cajón durante muchos años.

1.2.Inteligencia Computacional o Soft Computing

En este punto, es interesante hacer un breve inciso sobre uno de los campos esenciales de la inteligencia artificial de la actualidad: la inteligencia computacio- nal (tal y como se denomina en Estados Unidos) o soft computing (según la de- nominación europea).

La inteligencia computacional parte de la idea ya comentada de que la apli- cación de la inteligencia artificial es natu- ral en aquellos problemas para los que no existe una respuesta precisa o un meca- nismo concreto de resolución fijado. La inexistencia de tal solución o tal respuesta puede deberse a la incertidumbre inhe- rente al problema o a la imposibilidad de abordar una solución sistemática por la gran complejidad de los datos considera- dos. En estas situaciones, la inteligencia computacional propone la combinación de técnicas de tres campos distintos para proporcionar respuestas aproximadas pero válidas a estos problemas. Más con- cretamente, las tres técnicas que confor- man la inteligencia computacional o soft computing son:

  • La lógica difusa, propuesta por Lofti Zadeh en 1965, y que permite mo- delar matemáticamente la imprecisión inherente al lenguaje humano. Así, frente a la dicotomía verdadero/falso (1/0) de la lógica tradicional, la ló- gica difusa establece la existencia de grados de verdad (entre 0 y 1) de forma que es posible tratar desde un punto de vista computacional ex- presiones como “hace mucho calor aquí”, cuyo sentido puede ser dife- rente en un mismo contexto para diferentes personas.
  • Las redes neuronales artificiales, que, a partir del paradigma conexionista, imitan la estructura del sistema nervioso por medio de neuronas artifi- ciales que forman estructuras complejas capaces de aprender. Precisa- mente estas redes neuronales, unidas a la capacidad de cómputo actual, han dado lugar, como ya hemos dicho, a la idea de aprendizaje profundo o deep learning que está en la base de muchas de las aplicaciones inte- ligentes desarrolladas por Google, por ejemplo, o de los últimos prototi- pos de coche autónomo.
  • Los algoritmos bioinspirados y evolutivos, que imitan estructuras y com- portamientos existentes en la naturaleza a la hora de resolver problemas concretos. Así, los algoritmos genéticos, por ejemplo, “copian” los me- canismos de transmisión de la herencia genética para resolver problemas de optimización complejos. Los algoritmos hormiga, por su parte, imitan el comportamiento de un hormiguero en la búsqueda de comida para encontrar un óptimo de una función. Esto es, cada partícula (hormiga) re- corre el espacio aleatoriamente dejando un rastro de feromonas. Cuando una partícula encuentra un óptimo (la comida), regresa al hormiguero re- forzando el rastro de feromonas de la ruta seguida. Así se señala la ruta a seguir hasta el óptimo.

¿Por qué es relevante el punto de vista del soft computing? Fundamental- mente porque no trata de anular la incertidumbre o imprecisión, sino que asume que este es intrínsecamente parte de muchos problemas y que como tal debe ser tenida en cuenta. En este sentido es muy clarificador el razonamiento aproximado basado en la lógica difusa. Frente a los silogismos clásicos (si x es A entonces x es B; y es A luego y debe ser B), consideremos la siguiente afirmación: 

Si el tomate es rojo, ENTONCES está maduro Supongamos ahora que se nos plantea el hecho siguiente: El tomate es muy rojo 

Desde el punto de vista del silogismo clásico considerado anteriormente no llegamos a ninguna conlcusión, puesto que los antecedentes no son iguales (“el tomate es rojo” frente a “el tomate es muy rojo”). Sin embargo, parece razonable asumir una conclusión del tipo “el tomate está muy maduro”, que es precisa- mente lo que la lógica difusa permite describir para una máquina. Más aún, su- pongamos ahora una regla como la que sigue: 

Si hace calor, ENTONCES abre la ventana

Ningún ser humano tendría problema en entender y aplicar esta norma. Pero, si tratamos de que sea una máquina quien la aplique, surge un problema.

¿Qué significa “hacer calor”? Esta es una expresión imprecisa, cuyo significado varía de persona a persona y de situación a situación, y aunque obviamente po- dríamos tratar de reducirla a una descripción analítica (“si la temperatura supera los 26º, entonces abre la ventana”) estaríamos perdiendo generalidad además de introducir un nuevo tipo de incertidumbre en la propia expresión (¿se abre la ventana con 26º pero no con 25,9º?).

La mayor parte del razonamiento humano se basa precisamente en expre- siones imprecisas de este tipo y la inteligencia computacional, y más específica- mente la lógica difusa en este caso, proporciona un método para manejarlas y obtener conclusiones. Ahora bien, dado que partimos de imprecisión, las solucio- nes obtenidas no son, en la mayor parte de los casos, específicas y precisas. Pero es que tampoco lo son las soluciones requeridas para los problemas considerados. Por ejemplo, en el caso de la conducción autónoma, puede resultar más apropiado que el controlador del vehículo responsa a reglas de la forma “si la distancia al ve- hículo anterior es pequeña, entonces reducir moderadamente la velocidad” que a otras como “si la distancia al vehículo precedente es inferior a 25 metros y la ve- locidad es superior a 60 kilómetros por hora, entonces reducir la velocidad a 50 kilómetros por hora”. Por supuesto, esto no quiere decir que reglas como la última señalada deban ser completamente ignoradas. Al contrario, ambos tipos de reglas deben ser combinadas para obtener la mejor solución posible en cada situación.

Además, la inteligencia computacional también considera que ninguna técnica es la mejor para todos los problemas que pueden plantearse. Por el contrario, los resultados óptimos se obtienen por medio de una hibridación de diferentes técnicas, esto es, mediante la combinación en un mismo plantea- miento de las diferentes herramientas mencionadas más arriba e incluso de otras que pueden resultar de interés, siempre en función del problema específico  considerado.

1.3.inteligencia artificial fuerte vs. inteligencia artificial débil

Al considerar el tipo de problemas que trata la inteligencia artificial y, en particu- lar, el Soft Computing, se observa que hablamos fundamentalmente de problemas “materiales”. Es decir, problemas que encajan o pueden encajar dentro de lo que habitualmente se considera ciencia o ingeniería. La inteligencia artificial que trata este tipo de problemas es la denominada inteligencia artificial débil, y se trata de la que ha experimentado el espectacular desarrollo que hemos observado en los últimos años.

Sin embargo, existe otro tipo de problemas y otro tipo de inteligencia artifi- cial. Estamos hablando del manejo, la comprensión y la imitación de las emocio- nes humanas. No debemos olvidar que hace ya mucho tiempo que se superó la idea de que la inteligencia en el ser humano solo incluye los aspectos racionales y lógicos. Por el contrario, la psicología actual reconoce que la inteligencia es un concepto con múltiples facetas: inteligencia social, inteligencia emocional,   etc.

Dado que la inteligencia artificial, según la definición de Minsky, también de- bería tratar de hacer el tipo de acciones que estas inteligencias llevan a cabo, surge el concepto de inteligencia artificial fuerte, como aquella parte de la inteli- gencia artificial que trata de imitar las emociones y sentimientos humanos. Y aquí es donde surge un problema importante. Conocemos bastante acerca de los me- canismos formales de razonamiento, y sabemos expresarlos por medio de un apa- rato matemático adecuado. Sin embargo, en materia de sentimientos y emociones, nuestro conocimiento es a día de hoy muy escaso.

Es cierto que se están llevando a cabo intensos trabajos, y que reciente- mente la medicina y más específicamente, las neurociencias, han llevado a cabo interesantes descubrimientos sobre los mecanismos que generan las emocio- nes. No obstante, actualmente no existe ninguna forma de trasladar a la má- quina los sentimientos o emociones. Y es necesario comprender que este es un problema crucial, porque la gran mayoría de las decisiones que tomamos a lo largo del día están influenciadas si no determinadas por aspectos emocionales y/o afectivos, y no solo racionales. De hecho, investigadores de la talla del pro- pio Zadeh señalan que el gran obstáculo para el desarrollo de la inteligencia ar- tificial en la actualidad es precisamente la ausencia de mecanismos apropiados para la toma de decisiones.

Nótese que cuando hablamos de aspectos emocionales nos referimos a cuestiones tan simples pero tan fundamentales como entender por qué nos gusta una cosa y nos disgusta otra o cómo empatizamos con los demás. Sin embargo, es conveniente incluir una nota de prudencia. Los estudios y avances en este campo podrían propiciar que este tipo de problemas fueran tratables en un futuro próximo, aunque en la actualidad aún no tengamos muy claro cómo.

1.4.Historia reciente de la inteligencia artificial 

Antes de centrarnos en la situación actual de la inteligencia artificial, vamos a lle- var a cabo un breve “paseo” por su historia reciente. Como ya hemos indicado, el origen de la inteligencia artificial moderna puede fijarse convencionalmente en la conferencia de Dartmooth de 1956. A partir de ese momento se produce una rá- pida evolución. Sin embargo, ya anteriormente se habían producido desarrollos im- portantes, como la introducción de la idea de neurona artificial (por McCulloch y Pitts en 1943) o la máquina universal de Turing (en 1936) , concepto teórico clave para toda la computación posterior. En todo caso, es a partir de 1956 cuando se produce el rápido desarrollo de la nueva disciplina. Solo por citar algunos ejem- plos, en 1958 Rosenblatt presenta el perceptrón, una neurona artificial con la ca- pacidad clave de aprender a partir de los datos de un problema de clasificación (o regresión) concreto para encontrar una respuesta al mismo. Ese mismo año, McCarthy introduce el lenguaje de programación LISP, lenguaje funcional espe- cialmente diseñado para abordar problemas de inteligencia  artificial. 

En 1968 se alcanza otro de los hitos de la inteligencia artificial, cuando Hart publica el algoritmo de búsqueda A*. Hablando de forma muy general, este algoritmo considera las posibles soluciones de un problema como puntos en el es- pacio y va trazando un camino de punto a punto hasta la solución teniendo en cuenta en cada momento la información disponible sobre la posible solución en ese instante. La relevancia del algoritmo A* queda de manifiesto si recordamos que fue este precisamente el algoritmo que permitió al ordenador Deep Blue ven cer al campeón mundial de ajedrez Gary Kasparov en una sonada (y polémica) competición en 1998. 

Volviendo a los últimos años sesenta, existía la convicción de que la inteli- gencia artificial sería capaz, en un plazo más o menos breve, de resolver todo tipo de problemas. De hecho, en ese mismo año 1968 se estrena la película 2001: una odisea en el espacio, de Stanley Kubrick, basada en la novela homónima de Arthur C. Clarke. El auténtico protagonista de la película, considerada el inicio de la ciencia ficción moderna en el cine, es el ordenador HAL 9000, que controla la nave, interactúa utilizando lenguaje natural con los astronautas y llega a tomar de- cisiones por sí mismo. Este es precisamente el objetivo imperante en la inteli- gencia artificial de esos años: el desarrollo de una máquina inteligente “universal”, entendiendo como tal una máquina capaz de abordar cualquier problema o si- tuación de la misma forma que un humano. De todas formas, no debemos olvi- dar que al año siguiente, 1969, el hombre llega a la Luna utilizando un ordenador de a bordo con una memoria de tan solo 32K, muy inferior a la de cualquier smartphone o reloj inteligente actuales, por ejemplo. 

A principios de los años 70, sin embargo, se hizo evidente que las expec- tativas creadas por la inteligencia artificial eran excesivas. Las grandes inversiones de dinero llevadas a cabo no produjeron los resultados esperados y los gobiernos retiran su financiación y apoyo a muchos de los proyectos en marcha. Se produce una pérdida de confianza en la misma, y se abandona la idea de crear sistemas capaces de afrontar cualquier problema. Pero la investigación no se abandona completamente, y de hecho es en la década de 1970 cuando se presenta el algoritmo de retropropagación, algoritmo de aprendizaje que posteriormente habrá de permitir el desarrollo de redes neuronales multicapa y del actual deep learning. En estos mismos años 70 se abre paso la idea de que tiene más sentido desarrollar sistemas enfocados a la resolución de problemas muy específicos. Así, por ejemplo, surge el programa MYCIN (Shortliffe, 1975), que diagnostica enfer- medades infecciosas, en particular infecciones sanguíneas. MYCIN es utilizado por médicos en prácticas para obtener ayuda en sus diagnósticos. El sistema se actualiza con los hechos y reglas de inferencia que proporcionan los propios es- pecialistas. También en 1982 aparece PROSPECTOR, un sistema experto para la detección de yacimientos de molibdeno. 

A mediados de los 80 se produce un hecho fundamental, con la recupera- ción y aplicación del algoritmo de retropropagación para el aprendizaje de redes neuronales multicapa. En particular, se logra probar que bajo condiciones muy ge- nerales, una red neuronal de este tipo siempre encuentra solución. Paralelamente, desde el punto de vista institucional empieza a recobrarse un cierto interés, im- pulsado por iniciativas fundamentalmente militares como el programa de Guerra de las Galaxias de defensa frente a misiles. Todo ello hace que la inteligencia ar- tificial entre en un período de rápido desarrollo. Por señalar simplemente algunos hitos:

  • En 1989 se utiliza por primera vez el término Big Data. En esta fecha esta empezando ya a desarrollarse la explosión de datos que va a marcar el de- sarrollo de la inteligencia artificial. Sin embargo, es importante recalcar que la idea detrás del término puede rastrearse hasta bastante atrás, con el desarrollo, por ejemplo, de la mecánica estadística para el tratamiento de grandes volúmenes de partículas a comienzos del siglo XX.
  • En 1997 se presenta el ordenador Deep Blue, del que ya hemos hablado. Se trata de la primera vez que una máquina es capaz de vencer al ser hu- mano en un juego “intelectual” como el ajedrez. De todas formas, la forma en que se logró la victoria dio lugar a una importante controversia y en ocasiones se ha discutido la validez de la misma, por considerarse que Deep Blue habría “jugado con ventaja”.
  • También en 1997, Google lanza su buscador. La búsqueda de información en internet es un problema muy relevante, puesto que implica determi- nar la relevancia de una gran cantidad de posibles documentos (páginas) para una búsqueda concreta y hacerlo a tiempo real. No es por tanto de extrañar que es en estos mismos años cuando los conceptos de minería de datos y aprendizaje máquina empiecen a cobrar relevancia.

En la historia reciente, 2003 es una fecha crucial para el desarrollo de la inteligencia artificial. Ese año se completa la secuenciación del genoma humano. Aunque la secuenciación en sí misma no fue llevada cabo utilizando específica- mente técnicas de inteligencia artificial, la gran cantidad de información y la ne- cesidad de desarrollar técnicas apropiadas para sacar provecho de ella abrieron la puerta a la aplicación de técnicas inteligentes para el desarrollo de la genómica y, de una forma aún más general, de la denominada medicina personalizada o medicina de precisión.

Por otra parte, en abril de ese mismo año 2003, la pérdida de una placa de protección en el despegue provoca la explosión del transbordador espacial Co- lumbia cuando trata de llevar a cabo la reentrada en la atmósfera. Este hecho pone de manifiesto la necesidad de desarrollar sistemas de salud máquina, ca- paces de detectar y prevenir fallos técnicos mediante el escaneo permanente de los sistemas, escaneo que, por supuesto, debe llevarse a cabo en tiempo real.

Finalmente, también en ese año 2003, Google, ante la creciente cantidad de información que deben procesar sus buscadores, se ve forzado a replantearse los mecanismos habituales de diseño de la programación. Ello lle lleva a la introducción del nuevo paradigma de programación Map Reduce y, con él, a la aparición del Big Data tal y como lo entendemos en la actualidad. Esto es, el procesamiento de gran- des cantidades de datos de naturaleza muy variada y a gran velocidad.

En 2011, con Watson surge la primera máquina capaz de realizar varias ta- reas inteligentes “al mismo tiempo”. De hecho, Watson, desarrollado por IBM, lleva a cabo estas tareas de forma secuencial, pero tan rápidamente que parece que los hace simultáneamente. Esta capacidad le permitió ganar un concurso de televisión de preguntas y respuestas frente a participantes humanos. Para poder ganar, no es suficiente con que el ordenador tenga acceso a grandes cantidades de información. Debe, además, contextualizar las preguntas, que son formuladas en lenguaje natural humano, y establecer relaciones entre conceptos para poder contestar en un tiempo razonable.

Por último, la otra gran fecha reciente que es necesario destacar es 2013. En ese año, entre otras cosas debido al desarrollo del Big Data, pero a la necesi- dad de crear nuevos modelos empresariales y nuevas técnicas de explotación y análisis de la información, surge el concepto de Ciencia de Datos, como la cien- cia que trata de extraer información inteligente a partir de los datos disponibles. Actualmente, la inteligencia artificial no puede concebirse sin la Ciencia de Datos y viceversa.

1.5.La Inteligencia Artificial hoy

La inteligencia artificial vive hoy en día una auténtica edad de oro, no exenta de graves problemas éticos y legales debido a le enorme incertidumbre sobre su evolución más inmediata. Porque, si bien el desarrollo de técnicas de inteligen- cia artificial han permitido resolver problemas de forma inimaginable hace ape- nas unos años (pensemos que la conducción automática es ya una realidad, que la medicina vive una revolución de la mano de la ciencia de datos, o que los robots ya son capaces de colaborar entre ellos en las fábricas, yendo mucho más allá de la mera repetición mecánica de acciones), también es verdad que la inteligencia artificial ha introducido grandes retos a nivel social y que incluso per- sonalidades intelectuales muy relevantes han expresado su temor e incluso su rechazo a un desarrollo no controlado de la inteligencia artificial. Más aún, de- sarrollos recientes como el uso de bots para la difusión de noticias falsas, las fil- traciones de datos o los ataques informáticos sistematizados a empresas y estructuras sensibles ponen de manifiesto que nos encontramos ante un escenario nuevo de evolución incierta todavía.

2.Cómo aprenden las máquinas

En esta sección vamos a considerar uno de los problemas fundamentales de la in- teligencia artificial. Si tratamos de construir máquinas capaces de adaptarse a los diferentes problemas para hallar las mejores soluciones posibles, es importante que estas máquinas dispongan de cierta flexibilidad. Dicha flexibilidad puede lograrse si las máquinas aprenden de los datos, la información o la experiencia. Pero, ¿cómo puede aprender una máquina?

Básicamente los mecanismos de aprendizaje de una máquina son los mis- mos que los de un ser humano, y pueden incluirse en dos grandes tipos:

  • Aprendizaje supervisado. Se trata del aprendizaje basado en ejemplos. Si, por ejemplo, a un niño le presentamos lápices de diferentes colores y le pedimos que escoja el rojo, luego podemos decirle si ha cogido efec- tivamente el rojo o si por el contrario se ha equivocado y tomado uno de otro color. De la misma manera, a una máquina podemos presentarle una serie de ejemplos en un problema dado, pedirle que nos proporcione una solución y luego decirle si esta solución es correcta y, si no lo es, hacer que ajuste el proceso que ha seguido hasta la solución.
  • Aprendizaje no supervisado. En el proceso de aprendizaje humano, muchos conceptos y conocimientos se adquieren sin necesidad de una corrección exterior. Por ejemplo, un niño que toca una taza caliente y se quema aprende que no debe volver a hacerlo. De la misma forma, es posible diseñar mecanismos de aprendizaje para la máquina que no requieren in- formación previa o una supervisión. Un ejemplo claro se presenta en problemas de clasificación de datos, donde la máquina es capaz de determinar en cuántas clases y cómo deben distribuirse un conjunto de ele- mentos simplemente determinando cómo se parecen entre ellos o cuál es la distribución más razonable (en un cierto sentido matemático).

Además, en muchos problemas reales es posible llevar a cabo una combi- nación de ambos tipos de aprendizaje, dando lugar a los que se suele denominar aprendizaje semisupervisado. En cualquier caso, los métodos de aprendizaje no son excluyentes, como se ve claramente en el caso de las redes neuronales y el aprendizaje profundo que vamos a pasar a considerar a continuación.

3.Redes neuronales y aprendizaje profundo (deep learning)

Una de las herramientas que están revolucionando la inteligencia artificial por su gran versatilidad y potencia es la constituida por las denominadas redes neuro- nales profundas que dan lugar al tan citado aprendizaje profundo o deep learning. La idea básica es tratar de imitar el funcionamiento del sistema nervioso a través de las denominadas redes neuronales. 

Recordemos brevemente que la unidad funcional básica del sistema ner- vioso es la neurona. Esta consiste en un cuerpo (soma) del que salen una serie de conexiones, denominadas dendritas, con otras neuronas y una conexión mayor hasta las dendritas de otras neuronas, denominada cilindroeje o axón. Su meca- nismo de funcionamiento es, aparentemente, muy simple. Cuando los estímulos recibidos a través de las dendritas superan un determinado umbral, la neurona transmite una señal eléctrica a través del axón a las demás neuronas. Es este conjunto de conexiones y transmisiones el que determina el funcionamiento del sistema nervioso.

En este modelo, los valores x1,..., xn, son los datos (numéricos) que re- cibe la neurona artificial, mientras que theta es el umbral. Finalmente, los valo- res w1, …, wn son los pesos asignados a cada uno de los datos que recibe la neurona. Si la media ponderada por los pesos de las entradas es superior al umbral, la neurona se activa y la salida (y) será igual a 1 Si no, la neurona no se activa y la salida y será igual a 0. La neurona aprende considerando la dife- rencia entre la salida obtenida y la que debería obtenerse para cada ejemplo concreto. Se trata, por tanto, de un aprendizaje supervisado, en el que se uti- liza el error cometido para ir modificando adecuadamente los pesos y el umbral a través de un mecanismo matemático clásico de optimización conocido como algoritmo  del gradiente. 

Pese a su simplicidad, el perceptrón es capaz de aprender a clasificar datos en dos clases para problemas no demasiado complejos. Pero su gran potencial surge por la posibilidad de copiar la estructura del cerebro humano y comunicar entre sí diversos perceptrones dando lugar a lo que se denomina una red neuro- nal. El esquema básico de una red neuronal se muestra en la siguiente figura.

En el caso de una red neuronal multicapa, cada una de las conexiones entre las diferentes capas está asociada a un peso (un número real), y cada una de las neuronas posee su propio umbral. La red aprende de una forma similar a la del perceptrón simple, modificando los valores de los pesos y los umbrales hasta con- seguir el mejor ajuste posible entre las salidas proporcionadas por las neuronas de la capa de salida (que pueden ser números reales cualesquiera) y las salidas esperadas para cada uno de los ejemplos. Dicho ajuste se consigue seleccio- nando una parte de los ejemplos (el denominado conjunto de entrenamiento) y uti- lizándolos para ajustar los pesos y umbrales. Después se toman el resto de ejemplos disponibles (el denominado conjunto de test) y se comprueba si sobre estos se obtiene un resultado adecuado. Si no es así, se repite el proceso selec- cionando un nuevo conjunto de entrenamiento y un nuevo conjunto de test.

Inicialmente, la principal dificultad a la hora de trabajar con una red neuro- nal multicapa radicaba en la imposibilidad de determinar a priori si iba a ser capaz de encontrar una solución para un problema dado. Por eso, el gran salto adelante se produce cuando, a mediados de los ochenta, se logra probar matemáticamente que una red neuronal entrenada por medio del algoritmo de retropropagación ne- cesariamente converge a una solución (aunque puede existir y, de hecho, casi siempre existe, más de una). Este algoritmo de retropropagación consiste, de una manera simplificada, en actualizar los pesos y umbrales no de forma simultánea para toda la red sino de una forma ordenada: primero los pesos que conectan la penúltima capa con la última capa y los umbrales de esta última; luego, los pesos de las conexiones entre la antepenúltima capa y la penúltima y los umbrales de esta; y así sucesivamente. Desgraciadamente, el coste computacional, es decir, la potencia y tiempo necesarios para llevar a cabo este proceso crecen muy rápi- damente en cuanto se incrementan el número de capas y de neuronas, por lo que durante algunos años el diseño de redes neuronales resultaba difícil y en oca- siones poco eficiente para problemas muy complejos. Sin embargo, el incremento de la capacidad de las máquinas y el desarrollo de nuevas técnicas ha permitido superar este problema en los últimos años, dando lugar a redes neuronales de gran tamaño, con diseños y conexiones muy complejos y con gran número de capas: es el denominado aprendizaje profundo o deep learning, que ya no requiere un aprendizaje totalmente supervisado, permite tratar casi cualquier tipo de pro- blema de una forma muy eficiente y que está en la base de muchos de los más recientes y espectaculares desarrollos de la inteligencia artificial en campos como la conducción autónoma, la medicina personalizada, el procesamiento de imagen o la seguridad.

3.1.Problemas de las redes neuronales y el aprendizaje profundo

Pese a su enorme aplicabilidad actual, tanto las redes neuronales como las redes de aprendizaje profundo siguen presentando dos problemas  fundamentales. 

En primer lugar, una red neuronal proporciona una salida para cada dato o conjunto de datos de entrada, pero este resultado no es interpretable. Es decir, la red no proporciona ninguna justificación de por qué ese es el resultado obtenido y no otro. Desde el punto de vista de las aplicaciones, este es un problema relevante, y de hecho, por ejemplo, el Banco Central Europeo no permite que la in- formación sobre la evaluación de riesgos que deben enviarle las entidades ban- carias sea obtenida exclusivamente por medio de redes neuronales. Por ello, aunque la mayor parte de los bancos utilizan de hecho las redes neuronales en su actividad, se ven obligados a complementarlos con otros sistemas (Sistemas Expertos, por ejemplo) que les permitan satisfacer las exigencias legales. 

En segundo lugar, las redes neuronales presentan un problema común a todos los sistemas de aprendizaje de las máquinas en la actualidad, y que cons- tituye una de las grandes limitaciones de la inteligencia artificial: la falta de adap- tabilidad. Para entender lo que queremos decir, consideremos el sistema de aprendizaje profundo Deep Mind desarrollado por Google. Este sistema fue utili- zado por Hassabis para crear un programa capaz de vencer al go, un juego orien- tal de estrategia considerado mucho más complicado que el ajedrez. La revolucionaria idea de Hassabis fue aprovechar la capacidad de aprendizaje de la red profunda para que aprendiera jugando contra sí misma, hasta adquirir el co- nocimiento suficiente para vencer a uno de los mejores jugadores del mundo de forma inapelable. Al producirse este hecho, en 2017, la prensa habló de un or- denador capaz de aprender por sí mismo y superar a la mente humana. Sin em- bargo, hubo un detalle que pasó inadvertido. El go se juega en un tablero cuyo tamaño puede variar. 

Deep Mind aprendió a jugar sobre un tablero de tamaño determinado (19x19). Sin embargo, si Deep Mind debe enfrentarse a una partida sobre un ta- blero de tamaño distinto (18x18, por ejemplo), todo el proceso de aprendizaje debe comenzar de nuevo. Es decir, Deep Mind no es capaz de adaptarse a una li- gera variación en las condiciones del problema, adaptación que resulta natural para el ser humano. 

De todas formas, no está de más señalar que el avance logrado por medio del aprendizaje profundo es espectacular. Problemas que hace apenas unos años eran intratables son actualmente resueltos de forma casi rutinaria. Por poner un ejemplo muy significativo: el aprendizaje profundo ha permitido desarrollar nuevos audífonos que son capaces de analizar el ruido del ambiente para optimizar la au- dición, y que resultan significativamente mejores que los anteriores.

4.EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL: INDUSTRIA 4.0

Tras haber hecho una breve revisión de la historia y el estado actual de la inteligencia artificial, no podemos dejar de presentar un análisis, aunque sea somero, de su impacto sobre nuestra sociedad. Y concretamente vamos a centrarnos en otro de esos términos que de un tiempo a esta parte se han convertido en ubicuos: La industria 4.0.

El origen de la Revolución Industrial se halla en la introducción de maquinaria (en concreto telares y máquinas de vapor) en procesos que hasta entonces eran llevados a cabo a mano y por mera fuerza bruta (humana o animal). Poste- riormente, la introducción de los procesos de producción en cadena, y, posterior- mente, la informatización, condujeron a un profundo cambio en los mecanismos económicos y de producción. Y es en este punto cuando aparece la idea de la In- dustria 4.0, que puede suponer una nueva revolución de efectos aún poco claros.

El concepto de Industria 4.0 surge en Alemania ante la constatación de que la mano de obra y la producción resulta mucho más barata en países extranjeros, lo que esta provocando el traslado de numerosas empresas a países que, por otra parte, suelen presentar una situación política poco estable. Con la idea de conseguir el retorno de estas industrias, el gobierno alemán se plantea la automatización de procesos, para lograr tanto una mayor productividad como una mayor compe- titividad. Y es de este planteamiento del que surge el concepto de Industria 4.0.

Pero, ¿qué es exactamente la Industria 4.0? Se podría definir como el rediseño de los procesos de producción industrial  combinando:

  • Robots para la automatización de procesos y operaciones. Estos robots deben ser capaces de colaborar tanto entre ellos (cobots) como con los seres humanos en el entorno de trabajo.
  • Sensores capaces de captar datos del entorno necesarios para el desa- rrollo de las diferentes operaciones.
  • Algoritmos inteligentes que, a partir de los datos captados por los senso- res, sean capaces de planificar y dirigir las operaciones y actividades de los robots.

Por supuesto, los tres grandes procesos considerados arriba, constan, a su vez de múltiples procesos y vertientes. En la siguiente figura mostramos un resu- men de los diferentes aspectos involucrados en el concepto de Industria 4.0. 

Observemos que las máquinas implicadas en los procesos industriales ge- neran datos de forma continúa. Estos datos deben ser captados por los sensores y a partir de ellos deben tomarse las decisiones oportunas. La manera como pue- den tratarse estos datos la consideramos en la próxima sección, pero es importante subrayar esa necesidad de tomar la decisión oportuna. ¿Cómo decide una máquina? Debemos decir que en la actualidad este problema está muy lejos de ser resuelto. De hecho, como ya hemos señalado anteriormente, aquí chocamos con el gran obstáculo para el desarrollo de la inteligencia artificial en la actualidad; esto es, la falta de una comprensión adecuada sobre los procesos de toma de de- cisión y su adaptación a las máquinas.

5.EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL: DATOS Y CIENCIA DE DATOS

Como hemos visto en la sección anterior, la Industria 4.0 depende, en último tér- mino, de un uso apropiado de los datos. De hecho, los datos han adquirido un papel protagonista dentro de la inteligencia artificial, en particular, y la sociedad, en general. La siguiente figura muestra cómo han cambiado las 10 empresas más importantes del mundo en el período 2007-2017. 

Se observa que en 2007 el ránking estaba dominado por empresas dedi- cadas a actividades industriales y económicas “tradicionales”, mientras que en 2017 de las 10 empresas, 9 se dedican a actividades relacionadas con la inteli- gencia artificial y el uso de datos. 

A finales de los años noventa se produjo un acontecimiento de gran rele- vancia para nuestra sociedad y que, sin embargo, pasó casi desapercibido: el aba- ratamiento de los sistemas de almacenamiento digital permitió que, por primera vez en la historia, resultara más barato almacenar información en soporte digital que en papel. Dado que el soporte digital no conlleva restricciones de espacio como sí lo hace el papel, este hecho supuso la posibilidad de generar información (datos) de forma masiva. De hecho, se calcula que en el año 2012, por ejemplo, se generaron más datos e información que en toda la historia de la humanidad hasta ese momento. 

En la actualidad, cada uno de nosotros generamos datos de forma masiva, datos que quedan registrados de múltiples formas y que nos describen y nos re- flejan. El número de smartphones, tablets y otros dispositivos no deja de crecer, y de hecho resulta difícil concebir nuestro día a día sin ellos y los datos obtenidos a partir de ellos. 

¿Por qué esta explosión en el uso de datos? ¿Cuál es el interés y el bene- ficio que puede obtenerse del manejo de datos? Aunque indiscutiblemente esto daría lugar a una larga discusión, se puede afirmar brevemente que el estudio de datos persigue dos objetivos fundamentales:

  1. Informar. En los datos se encuentra recogida la información sobre aque- llo que ha sucedido, si bien puede ser preciso un análisis relevante para entenderlo.
  2. Predecir. A partir de los datos pueden extraerse conclusiones sobre su- cesos y acontecimientos futuros. 

De hecho, uno de los primeros campos en el que se identificaron estos ob- jetivos fue el de los negocios. Ya en la década de los cincuenta se habla de inte- ligencia de negocio o business intelligence como la forma de extraer información acerca del pasado en una empresa para optimizar la toma de decisiones de cara al futuro. 

Esta idea de aprender del pasado para tomar mejores decisiones en el fu- turo entronca con uno de los campos donde más se está trabajando en la inteli- gencia artificial en la actualidad: la minería de datos. 

Sin embargo, antes de tratar brevemente este concepto, es necesario hacer una nota sobre la distinción entre minería de datos y el Big Data del que hablaremos posteriormente. La inmensa mayoría de los procesos en los que se trata de obtener información inteligente a partir de los datos son minería de datos. Para poder hablar de Big Data, es necesario que el volumen de datos a tratar sea computacionalmente enorme y que además se requiera una respuesta en un tiempo generalmente corto. En este sentido, por dar una idea, el volumen de datos que puede manejar por ejemplo la hacienda de una región como Na- varra no es suficientemente grande como para hablar de Big Data. Sin embargo, si consideramos el análisis de los datos de genómica, proteómica, etc., en me- dicina si esta justificado utilizar el término Big Data. En los últimos años, hablar de Big Data se ha convertido en una moda para referirse a casi cualquier pro- blema que involucra el uso de datos, pero, tal y como veremos, es muy impor- tante no confundirlo puesto que, como veremos, la forma de plantear los problemas en Big Data es profundamente diferente al planteamiento de proble- mas en minería de datos.

5.1.MINERÍA DE DATOS

Volviendo a la minería de datos, la forma de extraer información inteligente a par- tir de los datos podría resumirse en el esquema siguiente:

En este esquema pueden distinguirse dos partes diferentes.

  1. En primer lugar, se dispone de un conjunto de datos (base de datos), que habitualmente pueden ser incompletos, imprecisos, redundantes... Por ello, es necesario llevar a cabo una preparación previa de estos datos, correspondiente a las fases de selección, preprocesado y selec- ción de características en el esquema. Básicamente, es preciso selec- cionar aquellos datos que son utilizables o de interés y someterlos a un proceso de limpieza, organización y homogeneización que permita su uso posterior. Esta, en muchas ocasiones, no es una tarea sencilla, y, de hecho, el éxito del proceso depende en gran medida de que esta etapa se haya llevado a cabo de forma adecuada. En este sentido, por ejem- plo, no es extraño que en estudios de minería de datos en medicina un tercio o más del tiempo de estudio deba dedicarse a esta tarea. Además, una vez homogeneizada y organizada la información, es necesario de- terminar qué datos son relevantes y cuáles no. Esta observación, que puede parecer trivial, no lo es en absoluto, puesto que en muchas oca- siones el uso de algoritmos de inteligencia artificial permite determinar que características de los datos que parecían relevantes no lo son en absoluto mientras que otras que a priori no se consideraba necesario in- cluir en el estudio son de hecho determinantes en el resultado final y las conclusiones obtenidas. La relevancia de estas fases es tal que en la ac- tualidad la preparación de profesionales para llevarlas a cabo está ad- quiriendo una gran importancia dentro de los planes de estudio de nuevas titulaciones como las de Ciencia de Datos que empiezan a im- plantarse. Además, aquí la inteligencia artificial juega un papel funda- mental al ser capaz de establecer relaciones y conexiones entre los datos que el humano (o incluso las técnicas estadísticas) no detectan.
  2. A partir de los datos, se trata de obtener conocimiento. Para ello, se apli- can los diferentes algoritmos de extracción de conocimiento que se han desarrollado y se siguen desarrollando en la inteligencia artificial. Esta aplicación requiere de un proceso de validación de los resultados que permita un refinamiento constante de los mismos. Debe recalcarse que un proceso de minería de datos no es en general un proceso estático en el que a partir de un conjunto de datos se extrae una serie de conclu- siones una sola vez y ya está. Por el contrario, en la mayor parte de las aplicaciones (medicina, negocio, industria,...) el proceso se repite una y otra vez, con nueva información que va incorporándose a la base de datos, y por tanto es importante que el sistema sea capaz de aprender para adaptarse a los cambios. En este sentido, resultan paradigmáticos, por ejemplo, los sistemas de tasación automática de bienes inmuebles, basados en el uso de redes neuronales. Dadas las grandes variaciones que ha sufrido el sector inmobiliario, es obvio que ningún sistema está- tico de valoración resultaría adecuado, pues en cuestión de meses que- daría obsoleto. Por ello, se han desarrollado sistemas que reaprenden cada poco tiempo en función de los datos reales, identificando nuevas variables relevantes (nuevos proyectos de construcción, por ejemplo) y recalculando la relevancia dada a otras.

Ahora bien, en todo proceso de minería de datos el elemento crucial son, precisamente, los datos. La mera acumulación de los mismos no resulta útil, del mismo que una biblioteca gigantesca no sirve de nada a quien no sabe leer. Por tanto, el elemento clave ha sido el desarrollo de herramientas capaces de proce- sar los datos y extraer de ellos información útil. Este desarrollo, si bien iniciado hace ya tiempo, se ha acelerado especialmente en los últimos años debido a la irrupción del Big Data, del que hablaremos a continuación.

5.2.BIG DATA

La creciente acumulación de datos lleva a que, en muchos casos, sea difícil pro- cesarlos de una forma eficiente en un tiempo razonable. Pero, por otra parte, como ya hemos dicho, el progreso y la innovación ya no se ven obstaculizados por la capacidad de almacenar datos. Por ello, nos encontramos ante la paradoja de que, en un momento en que disponemos de más información que nunca, no po- demos hacer un uso eficiente de esa información porque al ser un volumen tan enorme, nuestros métodos, diseñados para cantidades de información “modera- das”, no proporcionan una respuesta adecuada.

El ejemplo paradigmático de esta situación, y también el origen del con- cepto moderno de Big Data, se halla en los procesos de organización y bús- queda en Internet de Google a principios de siglo. En un momento dado, la empresa observó que si debía procesar toda la información necesaria con un solo equipo, el tiempo necesario para obtener una respuesta era de cerca de 43 días. El método usual de abordar el problema en aquel momento era la cone- xión de ordenadores para llevar a cabo una computación distribuida. Conectando 1.000 ordenadores en paralelo, el tiempo de respuesta se reducía a unos 60 minutos. Pero tan solo un día después de aplicar esta solución, la cantidad de información a procesar volvía a duplicarse, con lo que la solución propuesta era insuficiente. Dado que no era posible incrementar indefinidamente el nú- mero de ordenadores conectados, Google se vio obligado a buscar alguna solución nueva a este problema. Dicha solución fue la introducción del paradigma MapReduce, una forma completamente distinta de entender la programación. En pocas palabras, en lugar de disponer de equipos en los que se encuentran almacenados los programas y de ir introduciendo en cada uno de ellos los datos correspondientes, lo que se hace es almacenar en los equipos los datos y pos- teriormente lanzar los programas.

Esencialmente, dado un fichero de datos a tratar, se divide en bloques igua- les que se distribuyen entre los diferentes nodos, con una cierta redundancia para evitar eventuales pérdidas de información. A continuación, el programa se lanza a cada uno de los equipos (Nodos) y luego se clasifican los datos (fase map). Todos los datos del mismo tipo se combinan y finalmente las clases resultantes se agregan. Un elemento crucial es precisamente este proceso de agregación, es decir, de fusión de los datos para obtener información significativa y representativa de los mismos.

Pero, ¿cuándo tiene sentido aplicar todo este proceso? O dicho de otro modo, ¿qué es el Big Data? Hablamos de Big Data cuando consideramos pro- blemas que involucran grandes volúmenes de datos, de naturaleza muy variada y que deben ser procesados a gran velocidad. Esta definición (las tres V del Big Data) ha sido extendida posteriormente, y se habla ya de las 8 V (o incluso más), como se señala en la siguiente figura:

Por tanto, el Big Data está conformado por dos elementos fundamentales:

  • Una gran cantidad de datos
  • Herramientas (inteligentes o no) para el procesamiento de esa gran can- tidad de datos.

¿Cuáles pueden ser estas herramientas? En la mayor parte de los casos, las mismas metodologías que se han utilizado en los problemas de minería de datos de los que hemos hablado anteriormente y que nos permitan la extracción de conocimiento inteligente.

Y, ¿pará que todo esto? ¿Es realmente necesario o es una moda pasajera? De hecho, el Big Data ha llegado para quedarse. Las empresas que citábamos en la tabla de las más relevantes del mundo no podrían llevar a cabo su actividad si no fuera por el Big Data, que les permite dotar de valor a los datos a su disposi- ción. Pero el Big Data por sí solo no es una panacea universal. Todo su potencial puede obtenerse en el marco más amplio de la última gran revolución: la Ciencia de Datos.

5.3.CIENCIA DE DATOS

En la actualidad, la obtención de conocimiento inteligente a partir de datos se en- marca dentro de una nueva disciplina conocida como Ciencia de Datos. Todo tipo de empresas y organizaciones sociales han adquirido conciencia del valor de los datos como fuente de conocimiento y análisis para la toma de decisiones, la im- plementación de nuevos procesos o la optimización de aquellos procesos ya exis- tentes. La Ciencia de Datos (Data Science) trata fundamentalmente de la forma en que los datos pueden transformarse en información relevante y útil. En este sentido, la Ciencia de Datos agrupa un conjunto de fundamentos y principios que dan soporte y guían la extracción de información y conocimiento de los datos. Po- siblemente, el concepto relacionado más cercano a Ciencia de Datos sea el de data mining o minería de datos, si bien es importante recalcar que la Ciencia de Datos va mucho más allá de esta disciplina. En la actualidad, existen multitud de algoritmos de minería de datos, en muchos casos especializados para problemas concretos y con niveles de especialización muy elevados. La comprensión de estos procesos es fundamental para un aprovechamiento adecuado de los datos. Sin embargo, como se ha dicho, la Ciencia de Datos va más allá del mero análisis de algoritmos de minería de datos. En particular, el científico de datos requiere:

  • un profundo conocimiento de técnicas computacionales, matemáticas y estadísticas para poder tratar con las diferentes fuentes de información a partir de las que los datos van a ser obtenidos;
  • unos sólidos conocimientos de programación que le permitan abordar el problema de implementar sistemas capaces de manejar grandes volúmenes de datos;
  • una elevada madurez para combinar los diferentes conocimientos técni- cos que posee para diseñar soluciones innovativas ante los diferentes problemas con los que va a encontrarse.

Por su propia naturaleza, la Ciencia de Datos está fuertemente orientada hacia la aplicación en diversos sectores económicos y sociales. Por ello, la formación en Ciencia de Datos debe incluir también aquellos aspectos empresaria- les que son relevantes para la comprensión de la utilidad de la Ciencia de Datos en los diferentes ámbitos socioeconómicos. Es imprescindible que el científico de datos desarrolle habilidades transversales que incluyan la capacidad de trabajo en equipo, la capacidad de comunicar resultados y la creatividad y capacidad de adaptación a nuevos escenarios y problemas. Es importante indicar que según el International Data Corporation (IDC), el mercado de software y servicios especia- lizados para la analítica de negocios experimentó un crecimiento también signifi- cativo del 10,8% en el año 2013, agregando un total de más de 104.000 millones el mismo año 2013.