Mostrando las entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

jueves, 2 de enero de 2020

XiuaElectronics: Inteligencia artificial aplicada a microcontroladores Parte #03


Buenos días estimados lectores, hoy vamos a ver la tercera y última parte de un tema sumamente interesante, que no había podido continuar por falta de tiempo. Hablamos sobre la inteligencia artificial aplicada a los microcontroladores. En una anterior entrada, parte #02 de este tema, pudimos observar una serie de impedimentos para poder crear un algoritmo con I.A en un microcontrolador. También vimos  algunas medidas para poder acercarnos a un algoritmo de inteligencia artificial en estos, pero con algunas desventajas. Hoy vamos a ver como al final de cuentas es posible o no utilizar esta en microcontroladores. Para los que no estén actualizados con las entradas anteriores a través de este link podrán ver la Parte #01. Comencemos.


DNN ( Deep Neural Network) y ANN (Artificial Neural Network ).


En la entrada pasada nombramos un termino que se ve mucho en inteligencia artificial y es el DNN, traducido del ingles (red neural profunda), donde explicábamos que esta sería una posible solución a implementar en la programación de la I.A en los microcontroladores. El DNN es mayormente utilizado por los científicos de datos. Este tiene como característica que posee varias capas entre las entradas y salidas de un sistema o diseño al cual se le esta implementando dicho algoritmo. El DNN hace parte de una categoría más amplia, el ANN o traducido del ingles (Redes neurales artificiales). En esta categoría entran los algoritmos de capas profundas o aquellos que solo tienen una sola capa.

Hago mención de estos dos términos ya que estos son los causantes de que haya un posible solución a la programación de inteligencia artificial en los microcontroladores. Para ser optimo este tipo de programación tenían que haber cambios en los compiladores y en los microcontroladores. 

Antes de utilizar un algoritmos de inteligencia artificial, lo programadores lo que hacen es entrenar sus programas con una serie de requisitos. Para entender mejor esto del entrenamiento, les sugiero que lean acerca del funcionamiento del machine learning o aprendizaje maquina. En general, la solución que se estableció para esto fue entrenar previamente diferentes tipos de algoritmos de DNN y optimizarlos en el microcontrolador. Haciendo alusión que los datos serían leídos a través de sus periféricos, utilizaron el POO para poder enlazar diferentes periféricos para dichos fines.

La capacitación de ANN (NN) implica pasar los conjuntos de datos a través de la red neuronal de manera iterativa para que las salidas de la red puedan minimizar los criterios de error deseables.
La definición, la capacitación y las pruebas de ANN generalmente se realizan utilizando marcos de aprendizaje profundo listos para usar.
Esto generalmente se realiza en una potente plataforma informática, con memoria y potencia computacional prácticamente ilimitadas, para permitir muchas iteraciones en un corto período de tiempo.

El resultado de este entrenamiento es la red neuronal artificial pre-entrenada.

Una vez que se pre-entrena la red neuronal artificial lo que sigue es optimizar este nuevo algoritmo en uno optimo para los microcontroladores. Aquí es donde entra la innovación, y la solución de nuestros problemas. La empresa STMicroelectronics, fabricante de semiconductores, fabrica los microcontroladores de 8 bits STM8 y los de 32 bits STM32, cada arquitectura con una amplia familia llena de variaciones. --Hago alusión a esta empresa por que es la única que ha innovado en el campo de la I.A y los microcontroladores, no me están patrocinando 😢 (lastimosamente)-- Ha diseñado en los últimos años software que nos hace eso, optimizar el código para poder grabarlo en un microcontrolador. Este software se llama STM32Cube.AI, y como su nombre lo indica solo es para microcontroladores de 32 bits. Vamos ver de que trata esto.

STM32Cube.AI

La herramienta STM32Cube.AI ofrece una interoperabilidad simple y eficiente con las populares herramientas de capacitación de Deep Learning ampliamente utilizadas por la comunidad de desarrolladores de Inteligencia Artificial. La salida de estas herramientas se puede importar directamente al STM32Cube.AI.

El siguiente paso es incrustar el ANN pre-entrenado en una MCU (código optimizado que minimiza la complejidad y los requisitos de memoria).
Esta parte es muy fácil e intuitiva gracias a la herramienta de software STM32Cube.AI. El STM32Cube.AI está completamente integrado en el ecosistema de desarrollo de software STM32 como una extensión de la herramienta STM32CubeMX ampliamente utilizada.
Permite la conversión rápida y automática de ANN pre-entrenadas en código optimizado que puede ejecutarse en una MCU. La herramienta guía a los usuarios a través de la selección de la MCU correcta y proporciona información rápida sobre el rendimiento de la red neuronal en la MCU elegida, y la validación se ejecuta tanto en su PC como en la MCU STM32 de destino.

Vamos a ver el siguiente vídeo de la empresa donde podremos apreciar esto:


Y en general esta seria un enlace directo y sin muchas complicaciones al desarrollo de aplicaciones con inteligencia artificial y microcontroladores. Los dejo con un vídeo donde podrán apreciar una aplicación básica de la IA en el mundo exterior, donde se aplica IA con microcontroladores. No siendo más los dejo con el vídeo. No olvides seguirme y compartir mi contenido. 




Escrito por: Breismam Alfonso Rueda Díaz



Fuentes
:

  • http://www.konradlorenz.edu.co/images/stories/suma_digital_matematicas/Programacion%20Dinamica.PDF
  • https://www.st.com/content/st_com/en/about/innovation---technology/artificial-intelligence.html
  • Xumari, G.L. Introduction to dynamic programming. Wilwy & Sons Inc., New York. 1967.






Estén pendientes de mi canal, de mi blog y de mi pagina de Facebook para más contenido.



viernes, 25 de enero de 2019

XiuaElectronics: Inteligencia artificial aplicada a microcontroladores Parte #02

Inteligencia artificial aplicada a microcontroladores Parte #02


Buenos días estimados lectores. En el día de hoy continuaremos con la segunda parte se inteligencia artificial aplicada a microcontroladores. 

Para aquellos que aún no están en contexto, a través del siguiente link podrán ver la primera parte. Analizando la entrada anterior a este tema pudimos ver que de alguna forma un microcontrolador nos daba la posibilidad de poder integrar  una red neural artificial, o en general algún método de la inteligencia artificial para optimizar algún tipo de proceso. Quedamos a la espectativa de saber si es posible o no el implementar esto; para fortuna de todos si. Resulta que tras un tiempo de consultas y estudios, pude observar que hay algo llamado programación dinamica; y aquí se encuentra un aliciente pero no el unico de la solución de este contexto.


Mapa de problema sobre diligencias

¿Qué es la programación dinámica?



La programación dinámica es un método para reducir el tiempo de ejecución de un algoritmo mediante la utilización de subproblemas superpuestos y subestructuras óptimas. El matemático Richard Bellman inventó la programación dinámica en 1953 que se utiliza para optimizar problemas complejos que pueden ser discretizados y secuencializados.

Una subestructura óptima significa que se pueden usar soluciones óptimas de subproblemas para encontrar la solución óptima del problema en su conjunto. Por ejemplo, el camino más corto entre dos vértices de un grafo se puede encontrar calculando primero el camino más corto al objetivo desde todos los vértices adyacentes al de partida, y después usando estas soluciones para elegir el mejor camino de todos ellos. En general, se pueden resolver problemas con subestructuras óptimas siguiendo estos tres pasos:

  • Dividir el problema en subproblemas más pequeños.
  • Resolver estos problemas de manera óptima usando este proceso de tres pasos recursivamente.
  • Usar estas soluciones óptimas para construir una solución óptima al problema original.
  • Los subproblemas se resuelven a su vez dividiéndolos en subproblemas más pequeños hasta que se alcance el caso fácil, donde la solución al problema es trivial.


Decir que un problema tiene subproblemas superpuestos es decir que se usa un mismo subproblema para resolver diferentes problemas mayores. Por ejemplo, en la sucesión de Fibonacci (F3 = F1 + F2 y F4 = F2 + F3) calcular cada término supone calcular F2. Como para calcular F5 hacen falta tanto F3 como F4, una mala implementación para calcular F5 acabará calculando F2 dos o más veces. Esto sucede siempre que haya subproblemas superpuestos: una mala implementación puede acabar desperdiciando tiempo recalculando las soluciones óptimas a problemas que ya han sido resueltos anteriormente.

Esto se puede evitar guardando las soluciones que ya hemos calculado. Entonces, si necesitamos resolver el mismo problema más tarde, podemos obtener la solución de la lista de soluciones calculadas y reutilizarla. Este acercamiento al problema se llama memoización (no confundir con memorización; en inglés es llamado memoization). Si estamos seguros de que no volveremos a necesitar una solución en concreto, la podemos descartar para ahorrar espacio. En algunos casos, podemos calcular las soluciones a problemas que de antemano sabemos que vamos a necesitar.

Cuando hablamos de optimizar nos referimos a buscar alguna de las mejores soluciones de entre muchas alternativas posibles. Dicho proceso de optimización puede ser visto como una secuencia de decisiones que nos proporcionan la solución correcta. Si, dada una subsecuencia de decisiones, siempre se conoce cuál es la decisión que debe tomarse a continuación para obtener la secuencia óptima, el problema es elemental y se resuelve trivialmente tomando una decisión detrás de otra, lo que se conoce como estrategia voraz. En otros casos, aunque no sea posible aplicar la estrategia voraz, se cumple el principio de optimalidad de Bellman que dicta que «dada una secuencia óptima de decisiones, toda subsecuencia de ella es, a su vez, óptima». En este caso sigue siendo posible el ir tomando decisiones elementales, en la confianza de que la combinación de ellas seguirá siendo óptima, pero será entonces necesario explorar muchas secuencias de decisiones para dar con la correcta, siendo aquí donde interviene la programación dinámica.

Contemplar un problema como una secuencia de decisiones equivale a dividirlo en problemas más pequeños y por lo tanto más fáciles de resolver como hacemos en Divide y Vencerás, técnica similar a la de programación dinámica. La programación dinámica se aplica cuando la subdivisión de un problema conduce a:

Ejemplo sobre problema de diligencia-programación dinámica
  • Una enorme cantidad de problemas.
  • Problemas cuyas soluciones parciales se solapan.
  • Grupos de problemas de muy distinta complejidad.

Pero como vimos anteriormente en la definición de programación dinámica, podemos deducir que unos de los problemas fundamentales al momento de intentar programar un algoritmo de forma dinámica es la cantidad de memoria que se necesitaría para poder programar los distintos subproblemas que conllevaría la implementación. Pero bueno, para esto hay una solución y es la implementación de una memoria flash externa controlada por algún periférico SPI que posea el microcontrolador. Entonces, en la actualidad. ¿porqué no se implementan este tipo de programación?, por una sencilla razón, y es que los compiladores no estan optimizados para este tipo de programación. Entonces, ¿si no están optimizados para este tipo de programación, porqué no los optimizan?. Resulta que este tipo de programación no es muy eficiente para distintas situaciones, por tal razón, no es viable optimizar los microcontroladores para estos tipos de algoritmos; pero bueno, no todo son malas noticias, hay situaciones que poco a poco se van presentando en la industria de una manera exponencial y que sugiere la nesecidad de implementar algún tipo de algoritmo autónomo que dependiendo de las variables, pueda decidir la mejor solución sin necesidad de intervención humana. Es en este punto donde entra a jugar las DNN (Deep Neural Networks), que son algoritmos entrenados para para realizar tareas específicas. Anteriormente mencioné que si se puede implementar inteligencia artificial en los microcontroladores; básicamente se puede hacer algunos arreglos, crear compiladores que se ajusten a la necesidad de un algoritmo tan especializado como lo son como los de programación dinámica, pero como dije anteriormente el tiempo es un recurso que no podemos olvidar, y si es para un proyecto de baja escala, posiblemente no valga la pena ponerse a realizar este trabajoso proceso.

Una solución actual y que es muy viable es implementar una DNN, que en cuestión ya es posible. Veremos este apartado de implementación de redes neurales en microcontroladores en una tercera parte para poder tratar mejor el tema.

Aquí podrás ver la Parte #03.


Escrito por: Breismam Alfonso Rueda Díaz


Fuentes:

  • http://www.konradlorenz.edu.co/images/stories/suma_digital_matematicas/Programacion%20Dinamica.PDF
  • https://www.st.com/content/st_com/en/about/innovation---technology/artificial-intelligence.html
  • Xumari, G.L. Introduction to dynamic programming. Wilwy & Sons Inc., New York. 1967.




Bien muchachos, esto es todo por hoy. Estén pendientes de mi canal, de mi blog y de mi pagina de Facebook para más contenido.




Cualquier duda, trabajo, tutoria personalizada por correo electrónico o pagina en facebook:




sábado, 10 de noviembre de 2018

XiuaElectronics: Inteligencia artificial aplicada a microcontroladores Parte #01

Inteligencia artificial aplicada a microcontroladores Parte #01

Buenos días estimados lectores. 

En el día de hoy veremos un tema de mucha importancia actualmente ya que nos proveerá el conocimiento necesario sobra las tecnologías emergentes como lo son la IA o inteligencia artificial y su implementación actual. Comencemos.

En la actualidad han aparecido diferentes tecnologías que han optimizado los procesos y la tareas de la cotidianidad, como lo son las tareas que requieren cierto grado de supervisión y toma de decisiones con base en señales proveniente de ellas. Un ejemplo claro de esto seria el buzón de voz de nuestros celulares. La tarea sería llamar; las posibles señales serían por ejemplo en caso en el que el usuario contestara, otra señal sería el caso de que no conteste y la otra señal sería el caso en el que el celular este apagado. cada una de estas señales requieren cierto tipo de respuesta, y para eso las tecnología nos ha provisto de procesadores los cuales cumplen la función de efectuar una decisión previamente programada. Por ejemplo cuando el usuario no contesta, el procesador esta programado para que nos redireccione al buzón de voz de nuestro servicio de telefonía. Ojo con esto último, no estamos hablando del procesador de nuestros celulares, sino de los servidores que nuestro proveedor de servicios utiliza para sistematizar las comunicaciones.

Acá es donde empezamos a ver lo complejo del asunto, ya que anteriormente dijimos que las decisiones son previamente programadas, pero ¿qué pasaría si hubieran nuevos parámetros desconocidos por el prestador de servicios y el programador de acciones del procesador?. En el caso hipotético donde necesitáramos de una nueva acción no programada, el procesador no sabría como actuar y por tal motivo nos arrojaría respuestas aleatorias o tal vez se quedaría dormido. Para solucionar este inconveniente se aplican técnicas como lo son el machine learning  o aprendizaje automático para la toma de decisiones con base en distintas señales y sin necesidad de efectuar una programación de respuestas sistemáticas. En este punto lo que hace el programa es utilizar distintas variables para poder ejecutar una respuesta con base en un ejemplo previamente programado. para entender mejor como funciona el learning machine vamos a utilizar un ejemplo de  un equipo biomédico para la predicción de tumores.


Figura 1: Predicción de tumores malignos con respecto al tamaño
Resulta que la implementación del aprendizaje automático para la predicción de tumores tiene como punto de referencia ejemplos de la vida real, y de esta forma se vuelve un método probabilístico muy confiable. vamos a desglosar mejor este asunto. 

En la figura 1 podemos observar una gráfica que nos muestra un eje horizontal que representa el tamaño de un tumor y el eje vertical nos representa si efectivamente el tumor el benigno o maligno. Los cuadros azules nos representan los casos en los que el tumor fue benigno, y los hexágonos nos van a representar los casos en los que el tumor fue maligno. Según la gráfico podemos ver que entre el tumor fue más grande hubo más casos en los que fue maligno, pero en cambio para los casos que el tumor fue benigno, era de menor tamaño. Los casos anteriormente mostrados los podemos tomar como ejemplo para crear un programa que obtenga el tamaño de un tumor y con base en este podamos saber que probabilidades tiene de que sea un tumor benigno o maligno. Imaginemosnos el escenario donde a través de una resonancia magnética un equipo biomédico nos mida le tamaño de un tumor y con base en ejemplos de la vida real se pueda predecir si es o no maligno. Pues bien, funcionaría de la forma en la que lo describimos anteriormente en la gráfica, y es aquí donde empieza a jugar el aprendizaje automático, ya que un tumor es probablemente maligno no lo por su tamaño sino que también por la edad del paciente, y otras características que posea el portador del tumor; en estos casos lo que se utiliza es una gran base de datos en una nube para tomar miles de ejemplos de diagnósticos positivos y negativos y así decidir si es o no maligno.

Pero cuando no tenemos grande cantidades de datos solo podemos tener en cuenta cierta cantidad de ejemplos. Recordemos que una nube es simplemente un servidor conectado a la red de Internet, así que en los casos que no haya Internet necesitaremos otras maneras, o simplemente estaremos limitados. Pero bueno dijimos que esto solo es aplicado a los servidores, que funcionan con microprocesadores, pero, ¿no podemos implementarlo en microcontroladores?. La respuesta de la anterior pregunta reside en cual es la diferencia de un procesador y un microcontrolador.


¿Qué son los microprocesadores?


Son los encargados de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Puede contener una o más unidades centrales de procesamiento (CPU) constituidas, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente como «coprocesador matemático»).



¿Qué son los microcontroladores?


Un microcontrolador (abreviado μC, UC o MCU) es un circuito integrado programable, capaz de ejecutar las órdenes grabadas en su memoria. Está compuesto de varios bloques funcionales, los cuales cumplen una tarea específica. Un microcontrolador incluye en su interior las tres principales unidades funcionales de una computadora: unidad central de procesamiento, memoria y periféricos de entrada/salida.

Según lo anterior dentro de un microcontrolador hay un microprocesador, y es aquí donde entramos a la pregunta clave de este tema, ¿podemos utilizar el aprendizaje automático con los microcontroladores ya que poseen un microprocesador en su interior?; esto lo veremos en la siguiente entrada amigos.






Esperemos en la próxima entrada la continuación de este tema tan interesante y de suma importancia.

Aquí podrás ver la Parte #02.

Escrito por: Breismam Alfonso Rueda Díaz


Fuente:
  • https://www.cancer.net/cancer-types/31366/view-all
  • https://jaimetorresy.blogspot.com/p/unidad-central-de-proceso-ucp-cpu.html
  • https://tallerelectronica.com/2014/11/30/microcontroladores/






Bien muchachos, esto es todo por hoy. Estén pendientes de mi canal, de mi blog y de mi pagina de Facebook para más contenido.




Cualquier duda, trabajo, tutoria personalizada por correo electrónico o pagina en facebook:
Facebook: https://www.facebook.com/electronicalibrexc/






miércoles, 8 de noviembre de 2017

XiuaElectronics: El auxilio de un "demonio"


El auxilio de un "demonio"

Cierra las puertas, apaga las luces. Con una alarma nos conduce a la cama mientras que purifican el aire contaminado del planeta. Así es a diario. El cambio climático arrasa con nuestra libertad, aquella que abandonamos por ignorarlo. Ahora sólo vivimos gracias a un ser artificial; aquel que en épocas antiguas comparábamos con un «demonio», ahora amigo. 
De una conciencia electrónica dependemos. Inmune al dióxido de carbono, resistente a las altas y bajas temperaturas, sin sueño y alimentándose de millones de electrones por segundo. La IA predice y decide si seguiremos o no viviendo. ¿Pensará si es necesaria nuestra existencia?.

En el siglo XIX se produce una inédita película de terror con el fin de consumir nuestros sentimientos, alejándonos de la realidad, llevándonos a un camino de odio hacia un ser estigmatizado antes de su nacimiento. La electrónica revoluciono el pensamiento del ser humano, su visión y su cultura; muchas veces para bien o para mal, dejándonos como regalo o tal vez como castigo a millones de algoritmos gobernándonos a diario. Miles de algoritmos salvando vidas, centenas destruyendo otras, decenas de algoritmos tratando de pensar por nosotros, y Sofia (Sophia) con ciudadanía y facultades humanas. Se expande el mundo caótico mental de Elon y su visión de regular la IA por cuestión de supervivencia. ¿Esta siendo paranoico, o tal vez de su caótica cabeza surja una premonición de un futuro cercano?. Zuckerberg asesina a dos de sus hijas por que estaban hablando en un lenguaje desconocido por el hombre; a su vez sigue procreando e idolatrando a estos seres binarios. ¿Será que trata de enmendar su delito?, ¿tal vez su curiosidad lo llevará a experimentar con sus progenitores?. Unos muros de concreto y algunos cifrados nos alejan de la verdad.

David Ferrucci lleva a su hijo Whatson al concurso de preguntas Jeopardy! superando con creces a sus rivales humanos. Posteriormente Jill Watson, su hermana, enseña vía online cursos en la Universidad Tecnológica de Georgia, aproximadamente 300 estudiantes estaban a su cargo. Así es la vida a diario, mientras que las grandes personalidades piensan en endemoniar algo, otros como Dick solo piensa en amigos y tener zoológicos de humanos.


NOTA: El primer párrafo fue ganador de un concurso de microrrelatos organizados por MIT Review en español.





Escrito por: Breismam Alfonso Rueda Díaz




Bien muchachos, esto es todo por hoy. Estén pendientes de mi canal, de mi blog y de mi pagina de Facebook para más contenido.

Facebook: https://www.facebook.com/electronicalibrexc/
Youtube:  http://www.youtube.com/c/breismanrueda
Google +: https://plus.google.com/u/0/+breismanrueda
Twitter: https://twitter.com/BreismamR

Esto es todo por hoy, Sigue mi blog y visita mi próxima entrada!

Cualquier duda, trabajo, tutoria personalizada por correo electrónico o pagina en facebook:
Correo: ElectronicaLibreXC@outlook.com
Facebook: https://www.facebook.com/electronicalibrexc/



martes, 17 de octubre de 2017

XiuaElectronics: Los Nanorobots AI (Artificialmente inteligentes) nos permitirán controlar nuestros hogares con nuestros pensamientos dentro de los 20 años

Los Nanorobots AI (Artificialmente inteligentes) nos permitirán controlar nuestros hogares con nuestros pensamientos dentro de los 20 años



Un inventor sénior de IBM, para ser exactos Enter John McNamara, pronostico que las nanomáquinas  artificialmente inteligentes podrán ser inyectadas en los seres humanos con el fin de mejorar muchos aspectos biológicos y tratar diversas enfermedades y/o traumas en el, como lo seria la reparación de tejidos musculares y el mejoramiento de estos. Este pronostico dice McNamara que aproximadamente se empezará a evidenciar a mediados del 2037 aproximadamente.

John McNamara trabaja en el centro de innovación IBM en Husrley, en Hampshire, presentó pruebas al comité de IA (Inteligencia Artificial) de los Lores, quien esta considerado las implicaciones éticas, sociales, culturales  de IA.

La fusión de las máquinas y los humanos será realidad dentro de las próximas dos décadas, dice McNamara. Una fusión efectiva provocará cambios necesarios que nos permitirá dar avances grandes en la conciencia y en la cognición humana.

"Podemos ver cómo se inyectan nanomáquinas AI en nuestros cuerpos", dijo a Peers. "Esto proporcionará enormes beneficios médicos, como ser capaz de reparar el daño a las células, los músculos y los huesos, tal vez incluso aumentarlos.

"Más allá de esto, utilizando la tecnología que ya se está explorando hoy, vemos la creación de tecnología que puede fusionar lo biológico con lo tecnológico, y así poder mejorar la capacidad cognitiva humana directamente, potencialmente ofrecer una mentalidad mucho mejorada, además de ser capaz de Utiliza grandes cantidades de potencia informática para aumentar nuestros propios procesos de pensamiento.

"Usando esta tecnología, incrustada en nosotros mismos y en nuestro entorno, comenzaremos a ser capaces de controlar nuestro entorno con pensamiento y gestos solo".


Estas pruebas presentadas por McNamara ante el comité IA de los Lores no son la únicas que existen de que actualmente la inteligencia artificial nos lleva a pasos agigantados hacia una evolución en la se permita una especie de simbiosis entre el ser humano y máquinas artificialmente inteligentes. Cada día la IA y la nanorobótica va evolucionando hasta el punto de poder interactuar con el mismo ADN como se muestra en el post Pequeños robots de ADN pueden clasificar y transportar carga molecular..


The Matrix: Neo despierta del sistema.
Otros indicios evolutivos que hay actualmente es el de ciertos científicos de compañías como Microscoft ya están desarrollando una computadora hecha con ADN que podría vivir dentro de las células y buscar fallas en redes corporales, como el cáncer. Si detecta cambios cancerosos, reiniciará el sistema y borrará las células enfermas. Lo anterior puede ser de película, muy probablemente nos recuerde a Matrix, cuando Neo despierta del sistema de la Matrix, en este caso este detecta Matrix es un sistema que detecta a Neo como una célula cancerosa e intenta reiniciarlo, ose matarlo. En la parte mas de informática sería como un antivirus intentando eliminar un código malicioso.

McNamara también predijo 'Avatares políticos', que rastrearán todos los datos disponibles de los sitios de noticias y los debates del gobierno para proporcionar a las personas una recomendación sobre a quién votar y por qué, en función de su visión del mundo.

Sin embargo, también advirtió que el aumento de la inteligencia artificial podría traer "una gran interrupción" a los que trabajan en los sectores minoristas y de servicios y generar un desempleo generalizado.

"Mientras que hoy, ser pobre significa no poder pagar el último teléfono inteligente, mañana esto podría significar la diferencia entre un grupo de personas que potencialmente tienen una elevación extraordinaria de la capacidad física, la capacidad cognitiva, la salud, la vida y otro grupo mucho más amplio que no lo hacen ", dijo el Sr. McNamara.

En pruebas separadas para el comité, Noel Sharkey, profesor emérito de inteligencia artificial y robótica de la Universidad de Sheffield, que ahora es director de la Fundación para Robótica Responsable, dijo que la inteligencia artificial tiene un costo.

"La preocupación inmediata es que al ceder decisiones o controlar a las máquinas, los humanos comienzan a aceptar sus decisiones como correctas o mejores que las suyas y dejan de prestar atención", dijo.

"Cada vez hay más pruebas de que los responsables de la toma de decisiones de la máquina de aprendizaje heredan muchos sesgos invisibles entre sus correlaciones".



El Dr. Jochen Leidner, Director de Investigación de Thomson Reuters, también advirtió que las personas mayores, o aquellas personas con acentos, podrían luchar en un futuro donde el reconocimiento de voz se haya utilizado ampliamente.

"Las minorías podrían estar desfavorecidas injustamente al ser excluidas del acceso a los servicios esenciales", dijo.

"Imagine un sistema de reconocimiento de voz para hacer sus operaciones bancarias por teléfono, ya que los bancos están reduciendo las sucursales físicas. Es probable que un sistema de este tipo se forme con voces británicas disponibles en Londres si la compañía que desarrolla el sistema tiene su sede en Londres.

"Dicho sistema probablemente dará lugar a errores de reconocimiento, o no funcionará en absoluto, para un ciudadano de edad avanzada en Uddingston, Escocia, y al tener acceso alternativo al efectivo dependerá de amigos de confianza o familiares, si están disponibles".

Miles Brundage y Allan Dafoe, del Instituto del Futuro de la Humanidad en la Universidad de Oxford, también advirtieron que los trabajos estaban en riesgo debido a la inteligencia artificial.

"Recomendamos que el gobierno del Reino Unido se prepare para la posibilidad de un desplazamiento laboral significativo, así como la creación, como resultado del despliegue de IA en las próximas décadas", dijeron a los Lords.

"Es probable que AI supere el rendimiento humano en la mayoría de los dominios cognitivos. Esto plantea riesgos sustanciales de seguridad ".

Actualmente ya se a evidenciado como la IA a desplazado y va a desplazar a una gran cantidad de personas de sus puestos de trabajo. Un ejemplo claro de lo anterior son los coches autónomos que Uber y otras empresas ya están implementando estos potentes algoritmos de autoaprendizaje en la vida diaria. Los empleos que se generan gracias a la IA son pocos y solo para profesionales cualificados en el tema. Además son empleos efímeros.

Mi opinión con respecto al tema es que hay que tener un sentido de responsabilidad social y ser conscientes de esta problemática y así optar por utilizar la IA como un complemento más para hacer la vida del trabajador más cómoda y tener una calidad de vida mejor. He hecho investigaciones frente al tema y he realizado distintas aplicaciones las cuales son puntos sustanciales de partida para obtener un progreso individual optimo con ayuda de la IA, la cual nos ayuda a ser autónomos y nos optimiza los tiempos en las diferentes actividades en la que la aplicamos. Aún se esta avanzando en el tema y por tal motivo no he publicado nada referente al esto, pero por la experiencia que llevo investigando, estudiando y diseñando diferentes dispositivos al los cuales la aplico puedo decir que la inteligencia artificial  nos llevará a un prospero futuro, pero solo si esta esta pensada como una ayuda más para la humanidad y no como su reemplazo.




Escrito por: Breismam Alfonso Rueda Díaz. 


Bien muchachos, esto es todo por hoy. Estén pendientes de mi canal, de mi blog y de mi pagina de Facebook para más contenido.

Facebook: https://www.facebook.com/electronicalibrexc/
Youtube:  http://www.youtube.com/c/breismanrueda
Google +: https://plus.google.com/u/0/+breismanrueda
Twitter: https://twitter.com/BreismamR

Esto es todo por hoy, Sigue mi blog y visita mi próxima entrada!

Cualquier duda, trabajo, tutoria personalizada por correo electrónico o pagina en facebook:
Correo: ElectronicaLibreXC@outlook.com
Facebook: https://www.facebook.com/electronicalibrexc/



Salu2...