LA CIBERNÉTICA CLÁSICA A LA INTELIGENCIA ARTIFICIAL
INTRODUCCIÓN
La cibernética es la ciencia que estudia los sistemas de control y la comunicación basados en retroalimentación, aplicados tanto a maquinas como a seres vivos. El término “cibernética” fue introducido en 1942 por Norbert Wiener y Arturo Rosenblueth, centrando inicialmente en el estudio del control de la comunicación entre máquinas y organismos.
Durante la década de 1950, William Ross Ashby provocó el desarrollo teorías relacionadas con la inteligencia artificial, mientras el campo de la cibernética seguia expandiendose . Además la sociedad americana de Cibernética publico una versión de la evolución histórica de la cibernética, destacando su desarrollo y aplicaciones
El crecimiento de la cibernética se vio impulsado por los avances en electrónica, especialmente con la invención de la computadora de procesamiento rápido, que mejoraron significativamente la simulación y el análisis de información. Norbert Wiener De este modo, introdujo el concepto de isomorfismo,el cual, en escencia, se refiere a estructuras con relaciones y orden estable entre elementos.
Después de la muerte de Wiener el término “cibernética” comenzó a perder popularidad y se dio la evolución hacia lo que hoy conocemos como inteligencia artificial. Este campo emergió en los años 50 y ha evolucionada considerablemente hasta convertirse en un parte fundamental de la tecnología moderna
EL DESARROLLO DE LA INTELIGENCIA ARTIFICIAL
La cibernética de Wiener se enfocaban en el autocontrol de las maquias, mientas que la inteligencia artificial busca imitar y superar la inteligencia humana, incluyendo autoaprendizaje y procesamiento del lenguaje. La AI moderna abarca áreas como el aprendizaje profundo y la visión por computadora, su evolución hacia aplicaciones avanzadas en robótica. La transición de la cibernética a la AI refleja un entendimiento más complejo de los sistemas, con un impacto significativo en la tecnología y la sociedad, siempre que se utilice de manera correcta y responsable.
En el siglo XXI, la inteligencia artificial ha crecido exponencialmente gracias al aumento de datos y la potencia de procesamiento. Tecnología como el aprendizaje profundo, que utiliza redes neuronales avanzadas, han transformado áreas como visión por computadora, procesamiento del lenguaje natural y robótica. Estas innovaciones han dado lugar a sistemas sofisticados capaces de reconocer imágenes, traducir idiomas, juegos complejos, a veces superado a los humanos en estas tareas que son comunes.
La inteligencia artificial sigue avanzando rápidamente y se aplica en diversos sectores como salud, educación, comercio y entretenimiento. La investigación se centra en mejorar la compresión contextual de los sistemas de la IA, su capacidad para tomar decisiones autónomas y en abordar los problemas éticos y sociales relacionados con su uso.
AVANCES EN COMPUTACION Y TECNOLOGIA
Desde los inicios de la humanidad, el ser humano ha buscado maneras de simplificar y optimizar sus tareas diarias, lo que llevo a la invención de dispositivos como los computadores. Aunque los primeros computadores aparecieron hace más de 2000 y de maneras muy primitivas, con el tiempo, la tecnología ha avanzado significativamente desde entonces. En el siglo XIX, los computadores comenzaron a desarrollarse de manera más estructurada, y como resultado, hoy en día, han evolucionado hasta convertirse en máquinas extremadamente sofisticadas. Por lo tanto este progreso ilustra la transformación de dispositivos rudimentarios en poderosas y funcionales herramientas modernas que impactan profundamente nuestra vida cotidiana.
En los años 30, la evolución de las computadoras comenzó con la invención del analizador diferencial por Vannervar Bush, que la primera computadora analógica y mecánica. En 1936 Alan Turing presento un artículo muy importante titulado “Sobre los números computables con la aplicación al problema de la decisión”, que estableció los conceptos fundamentadas de la computación moderna.
Las cuartas generaciones de las computadoras personales emergen como los protagonistas de la informática. En este context,os elementos de la CPU se integran en microprocesadores, con Intel convirtiéndose en la principal fabricante de estos circuitos. Asi en1971, Intel desarrolla el primer microprocesador, EL 4004, y en 1974, presenta el primer microprocesador para uso general. Además durante esta generación también aparece el disquete.
INICIO DE LA INTELIGENCIA ARTIFICIAL
Alan Turing, pionero de la informática moderna y la inteligencia artificial, desarrollo soluciones clave basada en algoritmos en la primera mitad del siglo X. Turing desarrollo innovadoras soluciones basadas en computación y algoritmos. Esto fue crucial para la victoria aliada en la Segunda Guerra Mundial ya que descifro mensajes codificados por la maquina Enigma.
La inteligencia artificial (IA) a menudo se asocia con imágenes de ciencia ficción, influenciadas por películas de Hollywood y obras de autores como Philip K Dick e Isaac Asimoy. La realidad de la IA es mucho más concreta y práctica. Aunque el termino puede parecer moderno y futurista, la IA es un conjunto de las tecnologías con casi un siglo de historia, y está profundamente Arriagada en nuestra vida cotidiana, ofreciendo soluciones eficientes para muchos de los procesos que utilizamos a diario sin darnos cuenta.
Desde su origine hasta el presente la IA ha evolucionado significativamente. Este artículo, abordaremos la definición y los usos actuales de la IA, también su evolución histórica y los datos más relevantes que han marcado su desarrollo, Además, destacaremos curiosidades sobre cómo se ha desarrollado esta tecnología a lo largo de las décadas. En la actualidad la IA está experimentando una importancia notable en los diversos sectores, como bancos y seguros. Este sector ha incorporado la IA con el fin de mejorar la eficiencia, personalizar servicios y optimizar procesos, demostrando la relevancia el impacto profundo de la inteligencia artificial en la economía moderna.
EL CAMBIO TECNOLÓGICO EN EL TRABAJO
Desde la Primera Revolución Industrial, la automatización y las máquinas provocaron resistencia entre los trabajadores debido al temor de perder sus trabajos. Sin embargo, aunque reemplazaron algunos trabajos manuales, también se generaron nuevas oportunidades laborales. A medida que cada revolución industrial avanzaba —mecanización, electricidad y computadores / Internet— el mercado laboral se adaptaba a los cambios tecnológicos. En la actualidad, la cuarta revolución industrial, con el rápido avance tecnológico que se ha obtenido en los últimos años, está transformando el trabajo.
Desde la Primera Revolución Industrial, la automatización y las máquinas provocaron resistencia entre los trabajadores debido al temor de perder sus empleos. Aunque reemplazaron a algunos artesanos, también generaron nuevas oportunidades laborales. Cada revolución industrial—mecanización, electricidad y computadoras/Internet—adaptó el mercado laboral a los cambios tecnológicos. Actualmente, la Cuarta Revolución Industrial, con su rápido avance tecnológico y el “tsunami tecnológico“, está transformando el trabajo. Este fenómeno, junto con el envejecimiento poblacional y otras tendencias, plantea tanto riesgos como oportunidades para el futuro laboral, especialmente en el contexto de la inteligencia artificial. Este avance tecnológico, junto con el envejecimiento poblacional y otras tendencias, presenta altos riesgos para oportunidades laborales para el futuro del trabajo,
Durante el siglo XX, la invención de la computadora y la automatización revolucionaron el mercado laboral. Los primeros sistemas informáticos y la programación simbólica permitieron la automatización de tareas administrativas. Posteriormente, el desarrollo de redes neuronales y el aprendizaje automático posibilitaron un análisis de datos más avanzado y una mayor automatización de procesos complejos. Esta era marcó una transición hacia un mercado laboral más técnico, con una creciente demanda de habilidades en tecnología y análisis de datos.La cuarta revolución industrial, que comenzó en el siglo XXI, se caracteriza por el avance de la inteligencia artificial (IA), la robótica y la automatización avanzada.
Estas tecnologías están transformando industrias y creando nuevos tipos de empleo, aunque también están reemplazando trabajos rutinarios. La pandemia de COVID-19 aceleró la adopción del trabajo remoto y la digitalización, modificando la estructura laboral tradicional y promoviendo la flexibilidad en el trabajo. El futuro del trabajo está siendo modelado por innovaciones en realidad aumentada, realidad virtual y computación cuántica, que ofrecen nuevas oportunidades laborales. Sin embargo, estos avances también plantean desafíos, como la desigualdad en el acceso a oportunidades y la necesidad de re-capacitación para los trabajadores afectados por la automatización.
EL EFECTO DE LA INTELIGENCIA ARTIFICIAL EN DIREFENTES INDUSTRIAS
La adopción de la inteligencia artificial (IA) aumentan el PIB mundial en un 14 para el 2030, añadiendo 15.7 mil millones de dólares a la economía global. La IA impactara profundamente industrias como manufactura, retail, atención médica, servicios financieros, deportes y el sector público.
Esta tecnología puede mejorar la productividad al automatizar bastantes procesos y tareas rutinarias beneficiando tanto a empresas como a empleados. Las industrias específicas, beneficiando tanto a empleados. Las industrias especificas experimentaran diversos beneficios. Estos avances podrían transformar positivamente la producción, la economía ofreciendo tanto oportunidades como beneficios
- Atención a la salud: La IA mejorará los diagnósticos, proporcionará asistencia digital a pacientes y ayudará con la gestión de medicamentos y hábitos saludables.
- Retail: La IA optimizará ventas virtuales, recomendaciones, análisis de consumidores, y gestión de inventario, y algunas tiendas ya usan robots autónomos.
- Manufactura: La IA analizará datos de máquinas y sistemas para mejorar la predicción y administración de operaciones, y la automatización en fábricas será más eficiente.
- Deportes: La IA capturará imágenes de juegos para estrategias y mejorará el rendimiento de los jugadores. También ayudará a personalizar productos deportivos.
CONCLUSIONES
Este articulo busca investigar y dar a conocer la evolución de la cibernética a la inteligencia artificial (IA). La cibernética, fundada en 1942 por Norbert Wiener y Arturo Rosenblueth, se centraba en los sistemas de control y comunicación en máquinas y organismos. Durante los años 50, la cibernética se expandió con nuevas teorías y la invención de computadoras avanzadas, dando lugar a la inteligencia artificial.
La IA, que surgió en la misma época, ha experimentado un crecimiento exponencial gracias a los avances en tecnología de computación. Hoy en día, la IA incluye tecnologías avanzadas como el aprendizaje profundo y la visión por computadora, con aplicaciones en múltiples sectores como salud, educación, y comercio.
La Cuarta Revolución Industrial, impulsada por la IA y la automatización, está transformando el mercado laboral, creando nuevas oportunidades y desafíos. La IA está mejorando la productividad y ofreciendo soluciones innovadoras en diversas industrias, aunque también plantea importantes cuestiones éticas y sociales que requieren una gestión cuidadosa.
CREDITOS
Autor: Erika Alejandra Silva Segura
Editor: Maira Alejandra Acuña Rodriguez
Codigo: UCPAG4-3
Universidad: Universidad Central
FUENTES
Universidad del Valle de Atemajac. (2024). El concepto de la cibernética: desde sus orígenes hasta la actualidad. Ágora. https://www.univa.mx/agora/el-concepto-de-la-cibernetica-desde-sus-origenes-hasta-la-actualidad/
Elternativa. (2023). Historia de la inteligencia artificial. Elternativa. https://www.elternativa.com/historia-inteligencia-artificial/2923
Banco Interamericano de Desarrollo. (2022). Inteligencia artificial: ¿qué aporta y qué cambia en el mundo del trabajo? Blog del Banco Interamericano de Desarrollo. https://blogs.iadb.org/trabajo/es/inteligencia-artificial-que-aporta-y-que-cambia-en-el-mundo-del-trabajo/
Next U. (2024). Historia de las computadoras. Next U. https://www.nextu.com/blog/historia-de-las-computadoras-rc22/
Telcel. (s.f.). Impacto de la inteligencia artificial en industrias. Telcel.https://www.telcel.com/empresas/tendencias/notas/impacto-inteligencia-artificial-en-industrias