Breaking

septiembre 26, 2021

septiembre 26, 2021

✅ Cómo CAMBIAR el CURSOR sin PROGRAMAS En WINDOWS 10/8/7 + PACK DE CURSORES 2021

 ✅ Cómo CAMBIAR el CURSOR sin PROGRAMAS En WINDOWS 10/8/7 + PACK DE CURSORES 2021



Cómo CAMBIAR el PUNTERO del MOUSE EN WINDOWS 10 Aprende como cambiar el cursor del mouse sin programas en Windows 10/8/7. Además de la solución del problema que al reiniciar. SUSCRIBETE Y DALE LIKE ✅SALUDOS GENTE BIENVENIDOS A UN NUEVO VIDEO, EN EL VIDEO DE HOY TE ENSEÑARE COMO CAMBIAR EL CURSOR DE SU MOUSE FACIL Y PROGRAMAS.
👌👌PACK DE CURSORES POR MEGA LINK: https://mega.nz/file/4FN2GBSI#pd1xwrV8Mq3tDfKEMLaQ0jSR70QilfR8vQgN9O40KSU cambiar,el,cursor,del,mouse,sin,programas,en,windows,2021,como cambiar el cursor del mouse sin programas en windows,como cambiar el cursor del mouse,como cambiar el puntero del mouse,como cambiar el cursor del mouse windows 7,como cambiar el cursor del mouse windows 10,cambiar el cursor mouse sin programas,como cambiar el puntero del mouse sin programas,como cambiar el cursor del mouse sin programas,cambiar cursor windows 10,cambiar cursor windows 7,cambiar cursor,jeylini

como cambiar el cursor del mouse sin programas,como cambiar el cursor del mouse,como cambiar el puntero del mouse,como cambiar el cursor del mouse windows 7,como cambiar el cursor del mouse windows 10,cambiar cursor windows 10,pack de cursores para mouse,pack de cursores,cursores,cursor,cambiar cursor windows 7,cambiar el cursor mouse sin programas,como cambiar el puntero del mouse sin programas,mediafire,facil y rapido,pack de punteros de mouse,windows 7,windows 10

septiembre 17, 2021

septiembre 17, 2021

✅ Como poner FONDOS DE PANTALLA en MOVIMIENTO (ANIMADOS) Windows 7,8,10 | PC de BAJOS RECURSOS

 ✅ Como poner FONDOS DE PANTALLA en MOVIMIENTO (ANIMADOS) Windows 7,8,10 | PC de BAJOS RECURSOS



👇 INFORMACIÓN 👇 En este vídeo te enseño a como poner como wallpaper animados en windows 7, 8 y 10 Los fondos de pantalla con movimiento animado no son algo nuevo, muchos youtubers como elrubius usan wallpaper animados, es por eso que en este vídeo intento enseñar de forma sencilla a como tener fondos con movimientos o fondos animados.
LINKS DIRECTOS FONDOS ANIMADOS PC: 👉Página Wallpaper: https://www.desktophut.com/
👉Mega 2: https://mega.nz/file/9JFVQCqJ#tvdDqdnyNa7LXjzl8HXKR74Zg22fnKSBa6QLWPWXK6M
la mano tecno,gonzalo alarcón,fondos animados en android,Fondos de pantalla windows 10,wallpaper movimiento,Fondos con movimientos,Fondos con movimiento windows 10,Descarga fondos windows 10,como tener fondos con movimientos,como poner fondos en movimiento,fondos en movimiento windows 10,wallpaper animado,wallpaper animado pc,fondos animados windows 10,wallpaper animado windows 10,fondos windows 10,fondos de pantalla animados,windows10,
la mano tecno,fondo de pantalla,Fondos de pantalla windows 10,wallpaper movimiento,Fondo para windows 10,Fondos con movimientos,Fondos con movimiento windows 10,Fondos dinamicos,Descarga fondos windows 10,como tener fondos con movimientos,Como colocar fondos,como poner fondos en movimiento,fondos en movimiento windows 10,fondos de pantalla animados,wallpaper animado,wallpaper animado pc,fondos animados windows 10,wallpaper animado windows 10,



fondos con movimiento en android,fondos animados en android,Fondos de pantalla windows 10,wallpaper movimiento,Fondos con movimientos,Fondos con movimiento windows 10,Descarga fondos windows 10,como tener fondos con movimientos,como poner fondos en movimiento,fondos en movimiento windows 10,wallpaper animado,wallpaper animado pc,fondos animados windows 10,wallpaper animado windows 10,fondos windows 10,fondos de pantalla animados,windows10,español,android

septiembre 03, 2021

septiembre 03, 2021

Libro álgebra, trigonometría y geometría analítica de dennis zill y dewar en PDF

 

Libro álgebra, trigonometría y geometría analítica de dennis zill y dewar en PDF



Libro álgebra, trigonometría y geometría analítica de dennis zill y dewar en PDF

Si tienes problemas para descargar el libro, aquí te dejo un tutorial para saber como descargar los libros del blog por pasos sencillos:
septiembre 03, 2021

Instalar GEOGEBRA para pc GRATIS fácil y rápido en ESPAÑOL software COMPLETO windows

 Descargar e instalar GEOGEBRA para pc GRATIS fácil y rápido en ESPAÑOL software COMPLETO windows




Si tienes problemas en instalar el software de GEOGEBRA, te invitó a ver el siguiente turorial donde se explica todo el proceso para usar el software de geogebra.







#MayaVlogsMatematicas #Matematicas #EjerciciosResueltos #Geogebra #Software En este Vídeo-Tutorial de aprendizajes les explico a como descargar e instalar geogebra para pc bien explicado ultima versión para windows y GRATIS software completo para poder usarlo en tareas de la escuela. geogebra es muy fácil de usar y lo puedes descargar e instalar en muy pocos pasos sencillos, te lo dejo y espero y te sirva de mucho!.



septiembre 03, 2021

Inteligencia Artificial-La IA como ciencia y como Ingeniería del Conocimiento

 Artículo


Canal de Youtube



Resumen – En este artículo se explorará el concepto de Inteligencia Artificial (IA) considerada como ciencia y como ingeniería del conocimiento (IC). Tras un breve resumen de la evolución histórica del campo se  revisarán los cuatro paradigmas actuales (simbólico, conexionista, situado e híbrido) a través de los cuales se ha hecho una aproximación tanto al intento de comprender la inteligencia humana, como a la solución de una serie de problemas característicos del campo. Después, se reflexionará sobre las diferencias constitutivas entre el conocer humano y el conocer de las máquinas. Y el objetivo de la IA que por lo general se basa en la construcción de sistemas, tanto hardware como software, que sean capaces de replicar aspectos de lo que se suele considerar inteligencia. Y finalmente, hablaremos de algunas recomendaciones, que creo que pueden contribuir a aclarar y alcanzar los objetivos específicos de la IA y la IC, a la vez que se eliminan falsas expectativas resultado en su mayoría del uso de una nomenclatura cognitiva excesiva. Por lo tanto, el propósito global del artículo consistirá en dar una visión razonablemente amplia de la IA y la IC. Y podemos aclarar desde el principio que la IA es el conjunto de técnicas, métodos, herramientas y metodologías que nos ayudan a construir sistemas que se comportan de manera similar a un humano en la resolución de problemas concretos.


Palabras clave: Inteligencia Artificial, Ingeniería del Conocimiento, paradigmas, inteligencia humana, máquinas, reflexión, resultados, razonable.




Abstract - In this article we will explore the concept of Artificial Intelligence (AI) considered as science and as knowledge engineering (CI). After a brief summary of the historical evolution of the field, we will review the four current paradigms (symbolic, connectionist, situated and hybrid) through which an approach has been made both to the attempt to understand human intelligence, and to the solution of a series of characteristic problems of the field. Afterwards, we will reflect on the constitutive differences between human knowledge and the knowledge of machines. And the objective of the AI ​​that is usually based on the construction of systems, both hardware and software, that are capable of replicating aspects of what is usually considered intelligence. And finally, we will talk about some recommendations, which I think can help clarify and achieve the specific objectives of AI and CI, while eliminating false expectations resulting mostly from the use of an excessive cognitive nomenclature. Therefore, the overall purpose of the article will be to give a reasonably broad view of AI and CI. And we can clarify from the beginning that AI is the set of techniques, methods, tools and methodologies that help us build systems that behave similarly to a human in the resolution of specific problems.



Index term: Artificial Intelligence, Knowledge Engineering, paradigms, human intelligence, machines, reflection, results, reasonable.





 Canal de Youtube        I.        INTRODUCCIÓN

Actualmente se acepta, con alto grado de consenso entre los profesionales del campo de la computación, que el propósito general de la IA es desarrollar: (1) Modelos conceptuales, (2) procedimientos de reescritura formal de esos modelos y (3) estrategias de programación y máquinas físicas para reproducir de la forma más eficiente y completa posible las tareas cognitivas y científico-técnicas mas genuinas de los sistemas biológicos a los que hemos etiquetado de inteligentes. El avance de la Inteligencia Artificial está necesariamente limitado por los avances en las técnicas de modelado, formalización y programación y por la evolución en los materiales y las arquitecturas de los computadores y los dispositivos electromecánicos (“robots”) en los que se instala el cálculo. Quedémonos inicialmente con la idea de que los cuatro grandes objetivos de la IA son  modelar, formalizar, programar e implementar máquinas soporte capaces de interactuar de forma no trivial con el medio. La gran hipótesis de la IA fue que en un número corto de años (10, 20, 30, 40, ahora ya 50) iba a ser posible sintetizar los procesos cognitivos y conseguir “inteligencia general en máquinas”. Es decir, que no existían impedimentos físicos, constitutivos ni formales para este objetivo y que sólo era cuestión de recursos. Hay que definir que el término inteligencia es un concepto pre-científico cuya utilidad actual es, cuando poco, discutible. Dentro de la propia psicología se propone descomponer el término y hablar de “inteligencias múltiples” o de “inteligencia colectiva” intentando poner de manifiesto en el caso la existencia de habilidades relativamente autónomas. Cuando intentamos concretar más el significado del término inteligencia, para saber qué es lo que queremos mimetizar en una máquina, nos encontramos con el conjunto de conocimientos y habilidades a los que hace referencia toda la neurofisiología, la psicología, la sociología y la filosofía. Parece que se concreta algo al afirmar que la IA tiene que ver “sólo” con los conocimientos necesarios para la comprensión y la síntesis de procedimientos de solución de problemas complejos que exigen la capacidad de procesamiento simbólico y relacional. Se han realizado avances importantes en las técnicas de modelado conceptual y formal, en la estructuración del conocimiento necesario para resolver una tarea en términos del papel que juegan los distintos elementos o roles y del plan estratégico de descomposición del procedimiento de solución “métodos”. También se ha avanzado en las técnicas de representación formal (lógica, reglas, marcos, objetos, agentes, redes casuales, etc.) y en el tratamiento de la incertidumbre (redes bayesianas, sistemas borrosos) y en la solución de problemas para los que disponemos de más datos que conocimiento (redes de neuronas artificiales). Hay avances importantes en la búsqueda de inspiración en la biología (computación de membranas) y en la física (computación cuántica); se ha alcanzado la frontera de la nanotecnología y se investiga en biomateriales como soporte físico de un cálculo. Finalmente, cuando las soluciones propuestas por la IA son valiosas, enseguida las integra la informática convencional, es decir, independientemente de los excesivos objetivos iniciales y de la carga cognitiva de su nomenclatura, los logros alcanzados por la IA durante los últimos cincuenta años, entendida como automatización de procesos con alto contenido cognitivo, son indiscutibles.




      II.            PESPECTIVA HISTÓRICA: FUNDAMENTOS Y METODOLOGÍA

Los paradigmas dominantes en la actualidad (simbólico, conexionista, situado e híbrido) tienen sus fundamentos en los trabajos previos a 1956 llevados a cabo por la cibernética, desde 1943. En ese año se publicaron los tres trabajos que pueden considerarse de carácter fundamental:

·         A logical calculus of the ideas immanent in Nervous activity. McCulloch y Pitts, 1943.

·         The nature of explanation. Craik, k. 1943.

·         Behavior, purpose and teleology. Rosenblueth y otros, 1943; Wiener 1947.

En el primero, W.S. McCulloch y W. Pitts introducen el concepto de neurona formal que ha dado origen al paradigma conexionista. En el segundo, K. Craik introduce los fundamentos del paradigma simbólico al interpretar el conocimiento humano en términos de descripciones declarativas y modulares de entidades simbólicas de alto nivel y de un conjunto de reglas inferenciales usadas para manipular esas descripciones simbólicas. Finalmente en el tercer trabajo, introducen las bases del paradigma situado al interpretar el comportamiento inteligente en términos de un conjunto de mecanismos de realimentación. El trabajo de A. Turing en 1950 complementa los fundamentos del paradigma simbólico al proponer un procedimiento experimental de medir la inteligencia contenida en un programa de IA. En la década de los setenta se inicia la explosión de aplicaciones de la IA en términos de sistemas basados en reglas a los que se les llama primero sistemas expertos y después sistemas basados en conocimiento. El reconocimiento de la insuficiencia de la lógica como herramienta única de representación da lugar al desarrollo de otras formas de representación e inferencia mediante redes casuales y asociativas (semánticas, neuronales y bayesianas) y marcos, objetos y agentes. Aunque en la etapa dominada por el paradigma simbólico (1956-1986) hay un número relevante de trabajos basados en los principios de la cibernética y el conexionismo (Craik, 1943; McCulloch y Pitts, 1943), tales como la teoría modular de autómatas probabilísticos, las memorias asociativas, el reconocimiento de caracteres, los sistemas auto-organizativos y la traducción automática, es en 1986 (Rumelhart y otros, 1986) cuando renace con fuerza la aproximación neuronal al problema de la inteligencia. En la década de los 90 (Arkin, 1998; Brooks, 1991) aparece también, en el contexto de la robótica, el interés por la aproximación situada, cerrando así el lazo histórico que comenzó en 1943, con el reconocimiento de la necesidad de usar los tres paradigmas tanto en la perspectiva teórica como en la aplicada. Es curioso que durante todos estos años hayan sido mínimos los esfuerzos en el fortalecimiento de los fundamentos de la IA, más allá de los desarrollos en torno al proyecto SOAR (1969-1991) [Rosenbloom y otros, 1993] y de algunas críticas de filósofos y psicólogos interesados en la IA, como Dreyfus, Clancey o Searle. De hecho, tal como ya hemos mencionado, el debate más importante en IA no ha estado relacionado con la Ingeniería, sino con la potencial validez del paradigma simbólico para explicar los procesos cognitivos. Sobre el nivel físico (el hardware del computador y del robot) se superpone el nivel de los símbolos (el programa) y sobre este el nivel de conocimiento (en nomenclatura de Newell) o el nivel de la “teoría del cálculo” (en nomenclatura de Marr). Cada nivel es autónomo y se tiene que poder reescribir en términos de las entidades y relaciones del nivel inferior, dejando fuera parte de su semántica. Para explicar esta distinción entre la semántica y causalidad propias de cada nivel y las que no son computables. J. Mira y A.E Delgado (Mira y Delgado, 1987) introdujeron en 1987 la distinción en cada nivel entre el dominio propio del nivel donde la semántica es interna y las cosas ocurren “como tienen que ocurrir” (los contadores cuentan, los multiplexos multiplexan), y el dominio del observador externo (nosotros), donde la semántica es arbitraria y tenemos libertad para asociar significados a símbolos. Un aspecto importante para entender la parte computable de la inteligencia humana es detallar el conocimiento que se queda fuera cuando vamos atravesando fronteras de dominios y niveles en el proceso de reducción de un modelo conceptual, primero a un modelo formal y después a un programa. Y finalmente, a la hora de valorar las funcionalidades reales de un programa o un robot con supuesta inteligencia tengamos clara la distinción entre lo que pertenece al dominio propio (es decir lo que reside en la CPU del computador y en el cuerpo del robot) y lo que pertenece al dominio del observador (es decir las etiquetas lingüísticas y la semántica). Así, se nos hará evidente la distinción entre el nivel de inteligencia que realmente hemos sido capaces de computar y aquellos otros componentes de la inteligencia humana que sólo existen en el lenguaje natural y en la mente del usuario e intérprete del programa.




               III.            LA “IA” COMO CIENCIA

La perspectiva científica de la IA busca una teoría computable del conocimiento humano. Es decir, una teoría en la que sus modelos formales puedan ejecutarse en un sistema de cálculo y tener el mismo carácter predictivo que tienen, por ejemplo, las ecuaciones de Maxwell en el electromagnetismo. No es sorprendente entonces que con estos objetivos consideremos excesiva la conjetura fuerte de la IA. Su fenomenología engloba el conjunto de hechos asociados a la neurología y la cognición, desde los niveles subcelular y neuronal a los mecanismos y organizaciones superpuestas de las que emergen las funciones globales de percepción, memoria, lenguaje, decisión, emoción y acción que han dado lugar a lo que llamamos comportamiento inteligente en humanos. Dotar a la biología y a la psicología del carácter de ciencia experimental que tiene la física es un objetivo deseable pero de difícil consecución. Entre otras razones porque todavía no disponemos de los datos necesarios ni, posiblemente, de las matemáticas adecuadas. La labor que creemos que debe de realizar en esta tarea la computación en general y la IA en particular es dotar de herramientas conceptuales y formales a la Neurofisiología y la Ciencia Cognitiva. Es decir, potenciar la “Neurociencia Computacional” y todos los procedimientos experimentales de estimulación, clasificación, e interpretación y predicción de resultados.



                         IV.            LA “IA” COMO INGENIERÍA

La rama aplicada de la IA, conocida como Ingeniería del Conocimiento, tiene unos objetivos más claros y alcanzables a corto y medio plazo. Sin embargo, tiene también grandes dificultades comparada con las otras ingenierías de la materia y la energía por dos razones fundamentales. La primera es que, como alternativa a la materia y a la energía, el nuevo objeto formal de la IC es el conocimiento y éste, como la información, es pura forma. Sólo usa la energía como soporte, pero el mensaje está en la estructura relacional y en el consenso entre los distintos observadores externos que deberán de dotar del mismo significado a los símbolos formales y físicos que constituyen un cálculo. La segunda razón de las dificultades de la IC en comparación con las dificultades usuales en otras ingenierías es que la IC no puede apoyarse en una sólida teoría del conocimiento porque todavía no disponemos de esa teoría. Así, estamos queriendo hacer aviones sin un sólido conocimiento de la física de fluidos. Por consiguiente, parece razonable dejar el tiempo necesario para que la parte teórica de la IA contribuya a obtener una teoría computable del conocer humano y, mientras tanto, redefinir los objetivos de la IC de forma más modesta, teniendo en cuenta el carácter limitado, incompleto y poco preciso del conocimiento del que disponemos sobre los dos tipos de tareas que aborda la IC: (1) Tareas básicas e inespecíficas usuales en humanos, independientemente de su actividad profesional, tales como ver, oír, interpretar el medio, planificar, aprender, controlar las acciones encaminadas a moverse y manipular un medio, etc. y (2) Tareas científico-técnicas en dominios estrechos (diagnosticar en medicina, configurar y diseñar sistemas, etc.). En la mayoría de los desarrollos de la IC llamados Sistemas Basados en el Conocimiento (SBCs) se procede de acuerdo con los siguientes pasos (véase la Figura 1.1).


Figura 1.1: Esquema cualitativo de la IC. Se modela a partir de descripciones en lenguaje natural del procedimiento usado por un humano para resolver una tarea.

             


   V.            PARADIGMAS ACTUALES EN “IA”

Entendemos el concepto de paradigma en el sentido de Kunh [Kuhn, 1971], como una aproximación metodológica a la IA y a la IC que ha sido consensuada entre un amplio grupo de profesionales del campo que la consideran como la forma normal de hacer ciencia o ingeniería. Este consenso en un paradigma concreto supone que se está de acuerdo sobre cuáles son los objetivos y la forma de alcanzarlos. Es decir, sobre cómo plantear las cuestiones y los experimentos, sobre los métodos para resolver los problemas y sobre los mecanismos de explicación y las hipótesis que nos van a dejar satisfechos. Paradigma es sinónimo de forma de abordar la solución de un problema. Los cuatro paradigmas básicos son:

1. Simbólico o representacional.

2. Situado o reactivo.

3. Conexionista.

4. Híbrido.



1.5.1  EL PARADIGMA SIMBÓLICO

Todo paradigma empieza tomando postura sobre qué entendemos por conocimiento. En el caso del paradigma simbólico, llamado también representacional, se considera que todo el conocimiento necesario para resolver una tarea de diagnóstico, planificación, control o aprendizaje, por ejemplo, puede representarse usando descripciones declarativas y explícitas en lenguaje natural formadas por un conjunto de “conceptos”, los hechos, y otro conjunto de reglas de inferencia que describen las relaciones estáticas y dinámicas conocidas entre esos hechos. Así, razonar en el paradigma simbólico es equivalente a especificar un conjunto de reglas de manipulación de los conceptos de entrada al SBC que genera el resultado del razonamiento, la inferencia. Este paradigma ha sido el dominante desde 1956 hasta 1986, y en su evolución se observa una tendencia progresiva a separar los aspectos genéricos (tareas, métodos, inferencias y roles) de los conocimientos específicos de cada dominio de aplicación (medicina, robótica, educación, Web, etc.). La meta es aproximar la IC a las otras ingenierías, en particular a la ingeniería electrónica, donde nadie discute la utilidad de disponer de buenos almacenes de componentes reutilizables (contadores, ALUs, memorias,...) y de procedimientos sistemáticos de síntesis a partir de estos componentes, de un “modelo estructural de la tarea” (esquemas de conectividad en circuitos patrón) y de un conjunto de reglas que especifican el diseño a partir de un conjunto de especificaciones funcionales. Es usual distinguir tres tipos de tareas, de análisis (monitorizar, clasificar, diagnosticar, etc.), de síntesis (planificar, configurar, diseñar, refinar, etc.) y de modificación (reparar, controlar, supervisar, aprender, etc.). Cada tarea se corresponde con un patrón muy general de razonamiento que especifica el tipo de problema, sus objetivos y las actividades necesarias para alcanzarlos. Craik distinguía tres procesos básicos en el razonamiento humano:

1. Traslación de las entidades y relaciones del medio externo a una representación interna en términos de palabras, números u otros símbolos, como por ejemplo imágenes.

2. Derivación de nuevos símbolos a partir de los anteriores mediante procesos de inferencia inductiva, deductiva y, esencialmente, abductiva.

3. Retraslación de los nuevos símbolos derivados (inferidos) en términos de acciones que vuelven al medio externo.

La Figura 1.2 muestra una versión actualizada de la propuesta de Craik, en la que no es difícil detectar analogías con las arquitecturas usuales en los SBCs.


Figura 1.2: Versión actualizada de la arquitectura simbólica basada en la propuesta inicial de Craik.



1.5.2  EL PARADIGMA SITUADO

El paradigma situado, llamado también reactivo o “basado en conductas”, enfatiza el hecho de que toda percepción y toda acción están estructuralmente acopladas, a través de sensores y efectores concretos, a un medio externo e interno también concretos. Así, las componentes de modelado del conocimiento no son ahora conceptos cognitivos de alto nivel semántico (“hipótesis”, “observables”, “diagnósticos”, etc.), sino elementos más sencillos claramente distinguibles por un observador externo que ve cómo un agente físico (un robot, por ejemplo) interactúa con su medio, tal como ocurre en la etología. Observamos que un robot “está quieto”, “se mueve”, “gira a la derecha”, “evita un obstáculo”, “acerca un manipulador a un objeto”, “lo coge”, “lo transporta”, “lo suelta”, etc. El esquema de la Figura 1.3 resume la arquitectura reactiva más elemental. El sistema que queremos modelar se encuentra en un medio con el que cierra un lazo de realimentación mediante un conjunto de sensores y efectores específicos. Así, todo lo que no puedan representar esos sensores no existe para el sistema, en sentido estricto. Análogamente, el sistema no podrá realizar ninguna acción que no pueda ejecutarse a través de sus efectores. El resto de sus potenciales decisiones no existen a efectos de modificar el medio. El siguiente paso en la especificación de la arquitectura consiste en aceptar que las señales de los sensores son procesadas espacio-temporalmente para detectar la presencia en el medio de alguno de los esquemas de un conjunto predefinido. Todos estos esquemas están especificados a un nivel muy bajo, próximo al lenguaje máquina y la electrónica para que su tiempo de cálculo sea muy pequeño y permita al agente operar en tiempo real, de forma reactiva, sin necesidad de gastar mucho tiempo “deliberando”, como ocurría en el paradigma simbólico. A estos esquemas de entrada se les suele llamar “percepciones”. De forma especular, cuando el agente decide la acción o secuencia de acciones que debe de ejecutar, basta con que las seleccione y active, porque estos patrones espaciotemporales de acción también están precalculados y permiten una conexión directa, condicionada o secuencial con las percepciones. Finalmente, la función de decisión del agente (la inferencia y su control) es esencialmente un esquema de asociación (una tabla) o un autómata finito que, ante cada configuración de percepciones activadas y cada estado interno dispara la configuración de acciones correspondientes. Es decir, el paradigma reactivo sustituye la representación de la parte de condición de las reglas inferenciales por esquemas precalculados y sustituye el proceso inferencial en reglas y marcos por su autómata de control.



1.5.3  EL PARADIGMA CONEXIONISTA

En el paradigma conexionista (las llamadas redes de neuronas artificiales, RNAs), el problema de la representación del conocimiento se realiza mediante el uso de líneas numéricas etiquetadas para la entrada y salida de la red y el problema de la inferencia se resuelve mediante un clasificador numérico de naturaleza paramétrica en el que el valor de esos parámetros se ajusta mediante un algoritmo de aprendizaje supervisado o no supervisado. La arquitectura de un agente conexionista es modular, organizada en capas, con gran número de procesadores elementales (“neuronas”) fuertemente interconectados, que evalúan una sencilla función de cálculo local; La Figura 1.3 muestra la arquitectura básica del modelado conexionista que corresponde a un grafo paralelo y dirigido en el que los nodos están ocupados por las neuronas y los arcos por los pesos ajustables.


Figura 1.3: Arquitectura general de las RNAs como aproximadores paramétricos ajustables entre dos representaciones numéricas.




1.5.4  EL PARADIGMA HÍBRIDO

La mayor parte de los problemas son de naturaleza híbrida, por lo que su solución también deberá ser híbrida, usando los datos y el conocimiento disponibles junto con los métodos y técnicas más adecuados para rentabilizar esos recursos. Es decir, en el control de un robot podremos necesitar aproximaciones reactivas y declarativas, y técnicas simbólicas, borrosas y neuronales. Esta es la idea de sincretismo que caracteriza a las aproximaciones híbridas en IC. El cuerpo de conocimientos en IC ofrece una suite de métodos y técnicas de modelado, formalización, programación e implementación física. La naturaleza del problema y el balance entre datos y conocimientos son los criterios que guían en cada caso la combinación específica de medios más adecuada para su solución. Otra forma usual de arquitectura híbrida es la de los sistemas neuroborrosos que engloban formas de modelar conocimiento y operacionalizar inferencias en las que se mezclan componentes neuronales y borrosas. Así, pueden usarse técnicas borrosas para “adquirir” el conocimiento, obteniendo una representación en términos de conjuntos borrosos y etiquetas lingüísticas de las distintas variables de entrada y salida del sistema. También pueden definirse esquemas de calculo neuroborrosos en los que se mantiene el modelo estructural de neurona y las topologías de interconexión y se sustituyen los operadores analíticos usuales en la computación neuronal por operadores borrosos. Subyacente a los componentes borrosos del modelo existe también, en prácticamente todos los casos, un conocimiento simbólico usado para especificar las variables y sus rangos, para definir las funciones de pertenencia y para diseñar la topología inicial de la red neuronal.


                                                                                   


      VI.            EL CONOCER HUMANO Y EL CONOCER DE LAS MÁQUINAS

Ahora es tiempo de  reflexionar sobre las diferencias ente el conocer humano y el conocer de las máquinas. Todo conocer, nos dice Maturana, depende constitutivamente de la naturaleza del sistema que conoce, de sus entidades constituyentes y de sus relaciones con el medio al que está acoplado estructuralmente y con el que ha derivado evolutivamente. Así, hablar de inteligencia natural supone hablar de la vida, de los distintos niveles organizativos de la realidad biológica, social, histórica y evolutiva. La inteligencia está situada en un cuerpo y esa físicalidad del sistema no puede eludirse. Por eso la IA sólo puede pretender cubrir la dimensión formal del pensamiento, la parte computable de la percepción, la acción y el razonamiento en humanos. Es tan evidente que la naturaleza humana es distinta de la naturaleza del computador y del robot que casi parece innecesario el análisis comparativo. Sin embargo, dadas las consecuencias de esta analogía (cerebro-hardware, mente-software, pensar-calcular) vamos a mencionar algunas de las diferencias constitutivas entre el conocer de los sistemas vivos y la computación en máquinas con sensores y efectores electromecánicos usando el marco de niveles (físico, símbolos y conocimiento) y dominios de descripción de un cálculo (dominio propio de cada nivel y dominio del observador externo),  En cada nivel y en cada dominio el conocimiento acomodado en el mismo depende de la fenomenología que sus elementos constituyentes generan al operar. En el nivel físico de las máquinas las entidades constituyentes son circuitos lógicos y retardos que sólo permiten establecer distinciones binarias (0,1) sobre expresiones lógicas y transiciones de estado en autómatas finitos. Todo el resto del conocimiento que puede acomodar este nivel está asociado a la arquitectura (al lenguaje máquina). El cuerpo del computador es de cristal semiconductor, con arquitectura fija, estática y con semántica impuesta. Por el contrario, las entidades constituyentes del tejido nervioso (proteínas, canales iónicos, neuronas) permiten acomodar todo el conocimiento aportado por la genética, la evolución, la historia y la cultura. El soporte neurofisiológico del comportamiento inteligente es autónomo, autopoyético, dinámico y adaptivo. Su semántica es emergente y su arquitectura siempre está inacabada y, por consiguiente, finalmente es única e irrepetible para cada ser vivo y en cada instante de su existencia. Las diferencias en el nivel de conocimiento son las de observación más directa, tanto por introspección como por consideración del cuerpo de conocimientos acumulados por la genética, la fisiología, la psicología, la lingüística, la sociología y la filosofía. La inteligencia humana está asociada a la capacidad de adaptación al medio, al uso del lenguaje natural y al comportamiento basado en propósitos, intenciones y emociones. Si queremos usar aquí la metáfora computacional para afirmar que pensar es calcular, tenemos primero que formular los conceptos de cálculo intencional y cálculo semántico. Por el contrario, ya hemos recordado que al computador sólo pasa el “modelo formal subyacente” asociado a un lenguaje de programación para el que hemos sido capaces de desarrollar un traductor al lenguaje máquina. Es decir, todo cálculo es sintáctico o lógico y está descrito en extenso. Una segunda fuente de disparidad entre el conocer humano y el conocer de las máquinas procede de nuestro desconocimiento de la fisiología y la lógica de la cognición. Nos faltan datos y teorías sobre el conocer humano. En cambio, “el conocer de las máquinas” lo conocemos perfectamente porque las hemos diseñado nosotros. Una tercera fuente de discrepancia entre el conocer humano y el de las máquinas procede de la falta de herramientas formales y nuevos modelos de computación adecuados para modelar los procesos cognitivos, de forma análoga a cómo el cálculo diferencial permitió la formulación matemática de la Física. En todos los desarrollos de IA e IC, al intentar reescribir formalmente los modelos conceptuales, sólo disponemos de las matemáticas heredadas de la física (el álgebra y el cálculo), la lógica y la teoría de autómatas, junto con algunos elementos de cálculo de probabilidades y estadística.

                                                                                                                            



   VII.            CONCLUSIONES Y RESULTADOS

Como ya hemos visto a lo largo de este artículo, la IA es muy diferente a la inteligencia del humano, pero la inteligencia humana se desconoce aún y no esta estudiada del todo, más sin embargo decimos que la IA ya esta estudiada del todo por que nosotros la creamos; aunque tal vez aún no sepamos todo sobre la inteligencia artificial pero como en estos puntos nos enseñan a ver una nueva idea y de acuerdo a lo visto en los cuatro paradigmas y aplicándola como ciencia e ingeniería, nos podríamos dar la idea en que habrá una nueva visión y énfasis en este dichoso tema y esperemos que sólo sea para el bien.



REFERENCIAS

1)       Arkin, R.C.: Behavior-based Robotics. The MIT Press, 1998.

2)       Kuhn, T.S.: La Estructura de las Revoluciones Científicas. Fondo de Cultura Económica. México, 1971.

3)       Kuncicky, D.C.; Hruska, S.I. y Lacher, R.C.: «Hybrid systems: The equivalence of rule-based expert system and artificial neural network inference». International Journal of Expert System, 4(3), 1992, pp. 281–297.

4)       Mira, J.: «Del Conocer Humano al Conocer de las Máquinas», 2003. Lección Inaugural del Curso 2003-04. UNED.

5)       Mira, J. y Delgado, A.E.: «Computación Neuronal». En: Aspectos Básicos de la Inteligencia Artificial. Cap. 11; J. Mira, A.E. Delgado, J.G. Boticario y F.J. Díez, pp. 485–575. Sanz y Torres, Madrid, 1995a.

6)       Mira, J. y Delgado, A.E.: «Perspectiva Histórica Conceptual». En: Aspectos Básicos de la Inteligencia Artificial, pp. 1–51. Sanz y Torres, Madrid, 1995b.

7)       Rich, E.: «Artificial Intelligence». En: Encyclopaedia of Artificial Intelligence Vol. I; Shapiro, S.C. (Ed.), pp. 9–16

8)       Varela, F.J.: «The Re-Enchantment of the Concrete». En: The Artificial Route to Artificial Intelligence; Steels, L., and Brooks, R. (Eds.), pp. 11–22.

9)       Murphy, R.R.: Introducción a la robótica. MIT Press Camb. Mass., 2002.

10)   Newell, A. y Simon, H.A.: «Computer Science as Empirical Inquiry: Symbols and Search». En: Communications of ACM, 19, pp. 113–126, 1976.

11)   Jose Palma M. y Roque M. M. «inteligencia artificial»en: métodos, técnicas y aplicaciones, pp. 3-28.

septiembre 03, 2021

De la química del carbono a la química del silicio: un desafío para la bioética

 

De la química del carbono a la química del silicio: un desafío para la bioética


Resumen
 En el siglo XXI los adelantos científicos parecen sacados de un relato de ciencia ficción; son tantos y tan variados, que para describirlos se necesitarían grandes cantidades de papel o, para ser concordantes con estos mismos, incontables libros electrónicos, bits de información, ceros y unos, que de alguna forma se pueden traducir a lenguaje simbólico y comprensible para quienes aún nos vemos avasallados por estas nuevas tecnologías. Alan Turing, en el siglo XX publicó un célebre artículo donde definió una máquina calculadora de capacidad infinita, que operaba con base en una serie de instrucciones lógicas, con lo que sentó así las bases del concepto moderno de algoritmo; esta máquina sin igual, inicia el camino que en años posteriores derivará en la llamada inteligencia artificial. Los adelantos científicos no se limitan a las modificaciones del genoma; también existe la posibilidad de mejorar el cuerpo, el recambio de partes, la postura o reemplazo de extremidades, la inclusión de chips cerebrales, la adición de exoesqueletos, la posibilidad de potenciar los sentidos con elementos electrónicos; múltiples posibilidades en un mundo que avanza a pasos agigantados, y, según Aristóteles, debe buscar la correspondencia entre el saber moral y el saber técnico1 . Así las cosas, este trabajo se propone analizar las distintas posturas que actualmente tenemos, con ocasión de la preocupación generada por el desarrollo de la ciencia y la tecnología, en relación con las posibilidades futuras del ser humano en y con su entorno.
Palabras clave: Posthumanidad, bioética, ADN, biología, química, electrónica, artificial, desarrollo, ciencia, tecnología.

Abstract
In the XXI century scientific advances seem to come from a science fiction story. They are so many and varied that we need huge quantities of paper, or to be consistent, countless e-books, bits of information, zeros and ones that can be translated into language and understandable, to describe these advances, and we are still overwhelmed by new technologies. Alan Turing, in the twentieth century, published a famous article in which he defined an infinite capacity calculating machine that operated based on a set of logical instructions and thus laid the foundations of the modern concept of algorithms. This unmatched machine led the way in later years towards the so-called artificial intelligence. Scientific advances are not limited to changes in the genome, as it is also possible to improve the body, create spare parts, improve posture or make replacement of limbs, including brain chips, adding exoskeletons, with the possibility of enhancing the senses using electronic elements; There are many possibilities in a world moving rapidly, and Aristotle should seek correspondence between moral knowledge and technical expertise. As such this work intends to address the issue by analyzing the different positions we currently have on the concern generated by the development of science and technology in relation to future possibilities of human beings in their environment. Keywords: posthumanity, bioethics, DNA, biology, chemistry, electronics, artificial, development, science, technology.

Introducción
La obra Cien años de soledad permite recrear, en el imaginario, acontecimientos descritos tan vívidamente que permanecen en la mente e invitan a soñar. La llegada cada año, durante marzo, de los gitanos a Macondo con «inventos» como el imán, el que anunciaban como la octava maravilla de los sabios alquimistas de Macedonia; el catalejo y la lupa que exhibieron como el último descubrimiento de los judíos de Ámsterdam; los estudios del monje Hermann, dejados por el gitano Melquíades para que José Arcadio Buendía pudiera servirse del astrolabio, la brújula y el sextante y diera rienda suelta a su desaforada imaginación, fue el acontecimiento que a la postre lo llevó más allá del milagro y la magia y le permitió descubrir la redondez de la tierra. A todo ello se suma el «laboratorio de alquimia», que cambió para siempre la historia de Macondo. Este relato permite el ingreso al mundo que hoy la ciencia y la tecnología ofrece. Mundo que mentes no preparadas, pueden ver desde la incredulidad o la magia o simplemente como habladurías. En palabras de Úrsula Iguarán, esta actitud puede resumirse con la frase expresada a su marido: «Si has de volverte loco, vuélvete tú solo». Esta ponencia tiene como objetivo analizar los retos que para la bioética derivan del desarrollo tecnocientífico que confronta al Homo sapiens con nuevas posibilidades evolutivas. Tratará algunos desarrollos de ciencia y tecnología divididos en dos grupos:
1) elementos tradicionales, identificados con la química del carbono y
2) elementos novedosos, identificados con la química del silicio. Hasta el siglo pasado la evolución humana se planteaba como un hecho meramente biológico; actualmente, esto ha cambiado y hemos redescubierto a los seres humanos como seres con posibilidades de integrar a la biología los adelantos en materia de ciencias de la información, ingeniería electrónica, de sistemas, cibernética y robótica, entre otras. El desarrollo tecnocientífico, inscrito en la posthumanidad, necesitará cambiar el llamado paradigma científico y la sociedad deberá reinterpretarlo, así como ganar habilidad en la solución de los dilemas bioéticos que allí ocurran. Es necesario que la bioética luche cada vez más por el ejercicio real de la autonomía individual y grupal en este nuevo mundo tecnocientífico, donde los ciudadanos deben transformarse en ciudadanos biológicos2 , conscientes de su cuerpo ya sea modificado o no, y también de las implicaciones que traen estos avances para su vida en términos de su agencia como sujetos morales.


1. DESARROLLO
1.1 ANTECEDENTES HISTÓRICOS Bien entrado el siglo XX, en medio de la Segunda Guerra Mundial, Alan Turing publicó un célebre artículo donde definió una máquina calculadora de capacidad infinita (máquina de Turing) que operaba basándose en una serie de instrucciones lógicas, con lo cual sentó las bases del concepto moderno de algoritmo3 . Esta máquina sin igual, que permitió el triunfo de los países aliados, marcó el camino que derivó en años posteriores en la construcción de máquinas de cómputo, se sentaron las bases para la amplia y veloz carrera alrededor de la llamada inteligencia artificial. La construcción de máquinas que piensan, máquinas herederas de la electrónica programable4 , en línea directa de los mecanismos como el reloj de cuerda o los tableros inteligentes, puede pensarse originaron los estudios en robótica y con ellos su fusión con la interpretación de símbolos. Los robots o máquinas que obedecen algoritmos y programas, en un momento determinado pueden interpretar y,por qué no, aprender. Se abre entonces la posibilidad de la generación de androides. Los avances en ingeniería genética, nanotecnología, biología molecular y un sinnúmero de áreas que permiten predecir un futuro, en el cual la inteligencia humana y no humana rebase los actuales límites del llamado coeficiente intelectual y derive en la trasformación de la humanidad a una velocidad inesperada, es lo que puede llamarse «transhumanismo». Este desarrollo inscrito en la posthumanidad, necesitará cambiar el llamado paradigma científico y la sociedad deberá iniciar el camino de su reinterpretación para ganar habilidad, en la solución de los dilemas bioéticos que allí se generen.
 1.1.1 Química del carbono: Los elementos tradicionales nacidos de la química del carbono, pueden ser objeto de los desarrollos tecnocientíficos, como por ejemplo los llamados Organismos Modificados Genéticamente (OMG) organismos por todos conocidos, quizá, también, utilizados y consumidos, por ejemplo, el «maíz Bt», el «arroz amarillo» y demás semillas que al ser adicionadas con material genético de otras especies reciben este nombre. Pues bien, estos trabajos en biología molecular pueden hacerse también en el genoma humano; modificaciones que seguramente en un principio buscarán erradicar enfermedades, pero que pueden derivar en auténticos procedimientos eugenésicos. Hoy el diagnóstico preimplantacional genera controversias; en el futuro puede originar, como lo denomina Habermas, la «persona modificada genéticamente». Al formular un llamado sobre los límites que deben plantearse «se instrumentaliza la vida pre personal del niño por venir, con el resultado de que limitarían la libertad ética de la persona modificada genéticamente al minar su capacidad de concebirse como autora indivisa de su propia vida»5 . 5 Ibid., p. 4. Cambios en la cadena de ADN a nivel celular que pueden modificar al ser humano, seguramente de manera favorable en muchos sentidos, sin duda estarán supeditados a la capacidad adquisitiva de quien los desee. Surgen entonces interrogantes: ¿quién no desea ser mejor? o ¿quién no desea que sus descendientes sean mejores? Ahora bien, ¿quién puede pagarlo? ¿Hasta dónde puede considerarse «natural» o no este tipo de procedimiento? El conocimiento es una característica de la vida, el aprendizaje también lo es; por tanto, los procesos desarrollados a partir de ellos, son naturaleza, no pueden catalogarse como algo diferente a la misma esencia del ser. Los desarrollos, inventos y descubrimientos que el Homo sapiens ha logrado basado en pensamiento estructurado o por casualidad, le pertenecen a la naturaleza. Hoy denominados como culturales, para diferenciarlos de aquello «natural», en esencia primigenio. El desarrollo de organismos por cruzas híbridas pertenece a los dominios del conocimiento humano; los procesos que llevan al desarrollo de estos organismos son producto de la naturaleza humana que ha desarrollado la capacidad de establecer cruzas que pueden potenciar características ventajosas, para su modo de vida. El siglo XX ha dejado la posibilidad de realizar estas cruzas moleculares en el laboratorio de biotecnología, «… laboratorio [que] se ha convertido en una especie de fábrica abocada a crear nuevas formas de vida molecular. Y en esa creación, también se fabrica un nuevo modo de entender la vida»6 . Este entender la vida y sus intrincados caminos, lleva a ampliar la reflexión sobre el llamado mundo natural, quizás a aceptar aquello que algunos «satanizan» y anuncian como «monstruoso», pues es elprimer paso para la generación de organismos que permitan al Homo sapiens trascender su propia naturaleza.
1.1.2 Química del silicio: Los cambios que la ciencia y la tecnología ofrecen en la actualidad, no se limitan a las modificaciones del genoma; también, existe la posibilidad de mejorar el cuerpo, el recambio de partes (por ejemplo órganos internos), la postura o reemplazo de extremidades, la inclusión de chips cerebrales, la adición de exoesqueletos, la posibilidad de potenciar los sentidos con elementos electrónicos, los cuerpos sin edad, en fin… múltiples posibilidades en un mundo que avanza a pasos agigantados y que según Aristóteles7 , debe buscar la correspondencia entre el saber moral y el saber técnico. Un elemento novedoso identificado con la química del silicio, nacido del estudio de las propiedades electromagnéticas de este, es la Computación Molecular. En un experimento de laboratorio, en 1994: … haciendo uso de la capacidad natural de las moléculas de ADN para codificar información y recombinarse siguiendo leyes básicas de la bioquímica, se consigue dar una solución a un problema matemático. A pesar de que los métodos bioquímicos que se usan en el laboratorio son muy rústicos, el experimento permite el uso de moléculas de ADN como sustrato computacional, obteniendo la misma potencia que proporciona la computación convencional, generando ventajas en cuanto a eficiencia energética, densidad de almacenamiento y velocidad global. En la actualidad el modelo ha conseguido la suficiente madurez como para obtener primeras implementaciones reales en forma de microchips de ADN de función específica, interrup7 ARISTÓTELES. Citado por ZAMORA. Op. cit., p. 38. tores moleculares con aplicaciones farmacéuticas y la primera simulación bioquímica de una máquina de Turing 8 . Según Hottois9 , la experiencia del tiempo y la experiencia de la moral son inseparables, él la denomina finitud y abarca el efecto de los comportamientos en función del tiempo. Los seres humanos realizan acciones sin tener en cuenta su impacto en el tiempo; por esta razón, es necesario instaurar una «ética de la temporalidad» que permita establecer parámetros de responsabilidad en términos de las consecuencias que los diferentes actos generan. Los desarrollos acaecidos por cuenta del dominio del silicio no han sido calculados y, quizá, no se puedan calcular. Se pueden generar riesgos, pero también como miembros de una sociedad mundial que se mueve en virtud de la ciencia y la tecnología, debemos ser conscientes se debe generar consciencia sobre la imperiosa exigencia de estos adelantos. Al igual que el tiempo, la temporalidad ética es irreversible; por esto, el pasado se convierte en la experiencia que permite calcular cada paso futuro. La realidad cientificotécnica permite crear este futuro; este se muestra plagado de múltiples posibilidades, algunas favorables y otras no, dependiendo de la arista desde donde se las analice. Hottois manifiesta que el tiempo ha perdido el significado y trae un «éxtasis» del futuro, abierto y opaco, atado al informe operativo de la cuestión, entonces, el tiempo queda atado a la des-eticidad: «debería la tecnología producir todo lo que el hombre puede y deberían aplicarse todos los conocimientos que ha adquirido sin límite La simbolización y la eticidad del tiempo son solidarias, no hay lugar para la elección ética. El despliegue del poder técnico se produce hacia un futuro en el que «todo es posible», hay desmesura de la técnica, de esta forma desembocamos en uno de los mitos de la tecnociencia: el cíborg, que ha sido predicho desde hace tiempos, cuando se dice que la biología será superada o reemplazada por sistemas cibernéticos que son auto replicantes (iterativos), capaces de generar cambios adaptativos y de orden superior, que les permitirían auto-evolución11. Es clara la anterior posición, en el sentido de asignar a este desarrollo la condición de peligro que alerta no solo desde lo meramente técnico, sino también de las connotaciones sociales que puede generar, así: «A la inversa de Frankenstein, el cyborg no espera que su padre lo salve con un arreglo del jardín (del Edén), es decir, mediante la fabricación de una pareja heterosexual, mediante su acabado en una totalidad, en una ciudad y en un cosmos. El cyborg no sueña con una comunidad que siga el modelo de familia orgánica aunque sin proyecto edípico. El cyborg no reconocería el Jardín del Edén, no está hecho de barro y no puede soñar con volver a convertirse en polvo…»12, manifiesta una posición en la que la emotividad cambia de centro, se ve desplazada hacia la incertidumbre de lo desconocido y el ser humano pierde su lugar y permite retomar la discusión sobre el problema natural–artificial que hace indistinguible e irónico este discurso. En este sentido, cada vez son más ambiguos los conceptos y se hace un llamado de alerta: «Las máquinas de este fin de siglo han convertido 11 Ibid., p. 4. 12 HARAWAY, Donna. Manifiesto Cyborg: el sueño irónico de un lenguaje común para las mujeres en el circuito integrado.  en algo ambiguo la diferencia entre lo natural y lo artificial, entre el cuerpo y la mente, entre el desarrollo personal y el planeado desde el exterior y otras muchas distinciones que solían aplicarse a los organismos y a las máquinas. Las nuestras están inquietantemente vivas y, nosotros, aterradoramente inertes»13. Lo anterior puede interpretarse desde una posición pesimista en relación con las posibilidades de desarrollo tecnocientífico, situación que es extrema, ya que, si bien es cierto que no es posible calcular las consecuencias de estos desarrollos con exactitud, se debe considerar que son pasos dados, que llevan a posibilidades cada vez más elevadas en términos de conocimiento y que permiten rebasar las fronteras de este en aras del futuro Homo sapiens o lo que derive de él. «El objetivo de este análisis es ir más allá de las alertas, reconocer que existe un futuro próximo en el cual hombres y máquinas deberán trabajar para su mutuo beneficio, reconocer el importante papel de la mente humana que como sistema viviente y dinámico se extiende al ambiente y en continua emergencia con los cambios del entorno»14.

1.2 UNA MIRADA BIOÉTICA Los dilemas que la ciencia y la tecnología generan pueden ubicarse en el ámbito bioético: saber si las modificaciones genéticas, cualquiera que estas sean, son éticamente viables, jurídicamente vinculantes, si se establecen o no límites frente a ellas, en fin, preguntas que requieren el análisis reflexivo de los actores que les dan vida. Desde los aspectos sociales, cabe preguntarse sobre la conformación social de este nuevo mundo, en el cual interactuarían seres modificados y no modificados, humanos de vanguardia y humanos tradicionales. ¿Qué nuevas formas de fragmentación y segregación social se darán? La economía también tiene su parte en este análisis, pues como ya se dijo, los avances tecnocientíficos estarán disponibles para aquellos que puedan pagarlos, y entonces los que no posean el recurso, sufrirán su carencia. Ante este hecho, Rose15 hace un llamado a formarse como ciudadano biológico, esto es, el ciudadano consciente de su biología y de las posibilidades que en materia de transformación le permite la ciencia y la tecnología. Un ciudadano formado, capacitado y por tanto autónomo en el proceso de toma de decisiones sobre sí mismo y sobre su especie. Es vital, entonces, preguntarse hasta dónde el sistema educativo actual permite la formación de esta nueva ciudadanía. En este panorama es indudable que la bioética puede funcionar como mecanismo de reflexión y regulación que permita la equidad en la distribución de beneficios, al disminuir la afectación que grupos sociales vulnerables puedan llegar a sufrir, en la medida en que el capital transforma su nombre a «biocapital», mediante incursiones cada vez más en el metasistema económico, que será, sin duda, manejado por las grandes transnacionales que hoy van a la cabeza de la investigación y el desarrollo. Al analizar las posibilidades de desarrollos tecnocientíficos, se hace un llamado sobre los riesgos a los cuales también se verá abocada la bioética, si se dedica tan solo al seguimiento de procesos y procedimientos en los comités de investigación, generando con ello la burocratización de la reflexión, si se reduce solamente a contestar preguntas tales como: «¿Se ron los procedimientos adecuados?, ¿se obtuvieron los permisos necesarios?, ¿se garantizó la confidencialidad?, ¿se obtuvo el consentimiento informado?»16, lo que puede convertir la bioética en un engranaje al servicio de la bioeconomía. Es necesario que la bioética luche cada vez más por el ejercicio real de la autonomía individual y grupal en este nuevo mundo tecnocientífico, en el que los ciudadanos deben transformarse en ciudadanos biológicos, conscientes de su cuerpo, ya sea modificado o no, y conscientes de las implicaciones que traen estos avances, para su vida en términos de su agencia como sujetos morales. La bioética debe constituirse en un instrumento que ayude al análisis que hacen los investigadores, para prever las consecuencias de estos desarrollos a todo nivel. El principio de responsabilidad debe orientar las decisiones en términos de ciencia y tecnología, y llamar la atención sobre los derechos que se deben garantizar a las generaciones futuras que gozarán y vivirán estos desarrollos. Un análisis del principio de responsabilidad, permite una analogía con el juego de azar: En términos de posibilidades, si lo que nos ocupa fuera un juego, ¿valdría la pena arriesgar la apuesta por este ilimitado desarrollo, aun poniendo en riesgo el patrimonio actual?, o tal vez el sentido de precaución indica no jugárselo todo a una sola carta. Seguir con un desarrollo no guiado, movido únicamente por intereses económicos, manipulando el genoma y conformación de las especies, podría llevar al desequilibrio del sistema tierra y con él a su colapso, seguramente nos llevaría a pagar un alto precio: la existencia misma.

La famosa pregunta de Hamlet: «Ser o no ser, porque he aquí la cuestión. ¿Qué es más digno para el espíritu?, sufrir los golpes y dardos de la insultante fortuna o ¿tomar armas contra océanos de calamidades y haciéndoles frente quizá acabar con ellas…?», hoy es tardía: estamos inmersos en un «siendo», en el que el juego ha iniciado y no se sabe su desenlace. Para la bioética es deber fundamental la vida y analizar sus múltiples posibilidades, incluso aquellas que aún se desconocen. Es en términos del mismo principio de responsabilidad, enunciado por Jonás, que se debe posibilitar la evolución de la especie, así ello configure el desaparecer como Homo sapiens y dar la bienvenida a los posthumanos. En ambos sentidos (ser o no ser), Jonás plantea que la ética de la responsabilidad debe ser posibilitante y no determinante; por tanto, el supremo cumplimiento de la raza humana es la «abdicación en pro de los derechos de los que todavía no son, cuyo llegar a ser ella protege»18. Los retos para los bioeticistas son grandes: la formación de ciudadanos biológicos, el análisis reflexivo de las consecuencias que pueden traer los avances estudiados, la justa distribución de beneficios, la aplicación de valores bioéticos en investigación, la toma de decisiones ajustadas a los principios de responsabilidad y precaución y, todo ello, sin olvidar que así como lo dicta la biología, el objetivo es perdurar en la medida en que los genes pasan a la generación siguiente; así, pues, hoy no es solamente el paso de los genes, es también el paso de los memes, el paso del conocimiento y el hecho mismo de trascender en el tiempo y el espacio, como criaturas autoconscientes y agentes de su propia evolución.

CONCLUSIONES La aventura tecnológica emprendida por el Homo sapiens, que lo ha llevado de las cavernas al espacio y que hoy permite explorar y modificar la cadena de la vida, invita a redimensionar el estudio del Bios, no ya únicamente desde la biología, sino desde la gramática que esta biología posee: el ADN. Manifiesta Rose19 que las intervenciones en el nivel molecular, deben concebirse no como un destino sino como una oportunidad, es abrirse a la esperanza, con lo cual la investigación técnico-científica no solo es aceptada, sino justificada. De esta manera, la discusión se amplía de la biopolítica, a ámbitos como el «biovalor», la «bioeconomía», el «biopoder» y, porque no, el «biocapitalismo». Todos homogenizados con un prefijo común que simboliza lo único relevante para el futuro: posibilitar la vida. La tecnoevolución no debe tomarse como un mecanismo derivado de la evolución biológica, sino de un derivado de la evolución cultural del ser humano, gracias a sus avances tecnocientíficos, se constituye no solo en agente de la evolución, sino en su productor. La ética de la responsabilidad debe ser abierta; en el sentido de Jonas20, posibilitante, no puede minimizar el futuro, planificar por su propio bien y evitar el precio de errores humanos, no es posible. No se puede excluir el futuro. Marcuse se manifiesta con entusiasmo al asignar a la tecnología de la información la posibilidad desde lo que él denomina un desarrollo positivo, en que se pueden dar «la superación de las barreras conceptuales y el desarrollo de un pensamiento menos rígido pueden tener un impacto ecológico positivo»21, con lo cual se puede extender este concepto no solo hacia lo ecológico, sino hacia lo sistémico, en términos de la totalidad del ecosistema tierra. Es, para esta discusión, fundamental señalar el total acuerdo con la posición que Marcuse plantea: Esta ambigua situación envuelve una ambigüedad todavía más fundamental. El hombre unidimensional oscilará continuamente entre dos hipótesis contradictorias: 1) que la sociedad industrial avanzada es capaz de contener la posibilidad de un cambio cualitativo para el futuro previsible, 2) que existen fuerzas y tendencias que pueden romper esta contención y hacer estallar la sociedad. Yo no creo que pueda darse una respuesta clara. Las dos tendencias están ahí, una al lado de la otra, e incluso una en la otra. La primera tendencia domina, y todas la precondiciones que pueden existir para una reversión están siendo empleadas para evitarlo. Quizá un accidente pueda alterar la situación, pero a no ser que el reconocimiento de lo que se está haciendo y lo que se está evitando subvierta la conciencia y la conducta del hombre, ni siquiera una catástrofe provocará el cambio22. El cálculo del futuro en perspectiva presente, puede llegar a ser abusivo, en el sentido de ser planeado, según las necesidades y previsiones presentes, coarta la libertad de aquel que va a ser en el futuro. En este sentido, la responsabilidad presente se limita a la manutención de las posibilidades que se pueden brindar a los futuros seres humanos, para que ellos pueden tomar su propia decisión en concordancia con la autonomía que les pertenece.

Bibliografía
 1. ARISTIZÁBAL, Chantal. «Humans, animals, machines: Blurring boudaries». En Revista Colombiana de Bioética, vol. 4, N.° 2, 2009. [PDF]. [Fecha de consulta 4 de marzo de 2015]. Disponible en http:// www.bioeticaunbos que.edu.co/publi 
septiembre 03, 2021

El pensamiento físico-matemático como un objeto de estudio de la didáctica de la física

 

El pensamiento físico-matemático como un objeto de estudio de la didáctica de la física


1. INTRODUCCIÓN
La didáctica de las ciencias desde hace algún par de décadas ha empezado a ser considerada como una disciplina autónoma, en gran medida debido a que se ha fundamentado desde argumentos teóricos independientes, con sus propios métodos y objetos de investigación consolidados a partir de la epistemología, la historia de las ciencias y la psicología de la educación[1]. De la misma forma lo ha hecho la Didáctica de la Física, en la medida en que investigaciones recientes la han caracterizado como una disciplina autónoma que cuenta con sus propios objetos de estudio, al igual que unas metodologías de investigación, y un marco conceptual que la fundamenta en proceso de construcción [2]. Se presentan en este trabajo algunos resultados parciales de investigaciones que señalan a la didáctica de las ciencias y de la Física como disciplinas autónomas, así mismo se establece y caracteriza al Pensamiento Físico-Matemático y su relación con la enseñanza de la Física y con la Didáctica de la Física


2. LA DIDÁCTICA DE LAS CIENCIAS COMO DISCIPLINA AUTÓNOMA
A lo largo de la historia se ha acostumbrado a enmarcar la didáctica de las ciencias como una rama que se deriva de varias disciplinas, tales como la didáctica general, las ciencias naturales, la pedagogía o la psicología educativa. Esta concepción no contempla realmente el desarrollo epistemológico que ha tenido la didáctica de las ciencias así como la especificidad conceptual que implica describirla, que sin duda se ha formado a partir de los desarrollos epistemológicos y psicológicos de estas disciplinas del saber, sin decir que sean estas mismas las que la definen[2]. La didáctica de las ciencias se retroalimenta y considera los conocimientos desarrollados en la psicología y la ciencia cognitiva, debido a que en la educación los desarrollos en cuanto a la cognición y el aprendizaje son ampliamente valorados, entre otros; dejando entrever que la didáctica de las ciencias tampoco es una derivación de la psicología[1]. Algunos factores que evidencian el carácter autónomo de la didáctica de las ciencias son:

1 El incremento de artículos de corte investigativo en torno a la caracterización de la didáctica de las ciencias como una disciplina independiente y científica, y la aceptación por parte de los campos profesionales en los que se enmarcan.
2 Aumento de la producción bibliográfica, como manuales, diccionarios y publicaciones en torno al desarrollo investigativo del campo[3].
3 La consolidación de programas de postgrado en Didáctica de las Ciencias, reconociendo esta como un área de saber específico[4].
4 Incremento de profesionales dedicados a la investigación en didáctica de las ciencias, consolidando un cuerpo específico de investigadores que poseen medios de difusión propios[1].


3. LA DIDÁCTICA DE LA FÍSICA
 La Didáctica de la Física se considera como una disciplina autónoma que realiza sus estudios en torno a los contenidos que tienen que ver estrictamente con Física y se enriquece de otras disciplinas, tomando los desarrollos en epistemología e historia de la física, teorías del aprendizaje desde la neurología, psicología cognitiva y la sociología en los ámbitos educativos, enfocándose netamente en los procesos de enseñanza y aprendizaje. Desde un punto de vista epistemológico se considera que la didáctica de la física no constituye una rama de la didáctica general, de la didáctica de las ciencias y de ninguna forma de la pedagogía [2]. Es así que centraremos nuestra 2 atención en uno de los objetos de estudio de la Didáctica de la Física que es el Pensamiento Físico-Matemático.


4. EL PENSAMIENTO FÍSICO-MATEMÁTICO (PFM)
 El que una persona consiga construir un concepto, una idea, o una explicación pertinente2 sobre alguna fenomenología física, depende significativamente del nivel de desarrollo de su pensamiento, caso contrario a si consideramos que el hecho de enseñar física forma automáticamente en nuestros estudiantes dicho pensamiento, por lo general el aprendizaje de algún concepto involucra que de antemano el estudiante haya desarrollado algunas habilidades que le permitan: comparar, describir, analizar, sintetizar, abstraer, modelar, etc. A este conjunto de habilidades le hemos denominado Pensamiento Físico-Matemático (PFM)[2], de manera que el nivel de aprendizaje de la Física está directamente relacionado con el nivel de desarrollo dicho pensamiento[5].

4.1 CARACTERÍSTICAS DEL PENSAMIENTO FÍSICO-MATEMÁTICO
El Pensamiento Físico-Matemático es en sí mismo la representación visible de la muy conocida pero poco comprendida, relación entre la Física y las Matemáticas, que ubica a la matemática como el lenguaje ó la herramienta que permite caracterizar los distintos fenómenos físicos por medio del uso de algoritmos, lo cual ha llevado a pensar que el aprendizaje de la física se reduce al desarrollo y la aplicación de dichos algoritmos, sin embargo esta imagen de las matemáticas como un lenguaje puede constituir en un error si no es vista desde los fundamentos que caracterizan al lenguaje como una estrategia que permita la construcción, la interpretación, la abstracción y la consolidación de significados para el docente y para el estudiante sobre los fenómenos Físicos. De esta forma el desarrollo del Pensamiento Físico-Matemático involucra que el estudiante sea capaz de matematizar, que no debe entenderse simplemente como el aplicar algoritmos para resolver ejercicios de lápiz y papel. Este concepto de matematizar involucra a la par el desarrollo de los distintos tipos de Pensamiento Matemático[6] que se clasifican en pensamiento: numérico, espacial, métrico, probabilístico y aleatorio, y el pensamiento analítico o variacional. Es así que el desarrollo del Pensamiento Físico-Matemático se fundamenta en el desarrollo y la existencia de los cinco tipos de Pensamiento Matemático. A continuación se muestra la forma como se caracteriza el pensamiento matemático y su relación con el aprendizaje de la Física por medio de un ejemplo.

 1 Pensamiento Numérico: está caracterizado por la comprensión del uso y de los significados de los números, de los distintos sistemas de numeración, así como del sentido y significado de las diversas operaciones entre ellos. Así por ejemplo, la necesidad de representar elementos físicos (funciones, vectores, operadores…) por medio de números reales (o complejos) involucra que los estudiantes dominen las operaciones establecidas y permitidas para dichos conjuntos a la vez que den sentido a las cantidades físicas que se están representando[7].

2 Pensamiento Espacial: entendido como un conjunto de procesos que permiten establecer y dar uso a las representaciones mentales de los distintos objetos en el espacio, las relaciones entre ellos y sus transformaciones. Este tipo de pensamiento involucra el estudio de los sistemas geométricos que en particular guardan una relación directa con algunos conceptos fundamentales de la física, a manera de ejemplo se menciona la obra (Philosophíae Naturalis principia Mathematica) escrita por Isaac Newton en 1687, en donde Newton realiza un tratamiento geométrico riguroso de los distintos sistemas mecánicos.

3 Pensamiento Métrico: hace referencia al dominio que tienen las personas de las magnitudes y las cantidades en general, así como de su medición y su equivalencia en los distintos sistemas métricos. En el estudio de la Física se hace necesario el desarrollo de este pensamiento, ya que por lo general las magnitudes físicas se expresan de manera distinta según el país y según las necesidades de la persona, así como permite entender la comparación como un modo de observación.

4 Pensamiento Aleatorio: está asociado a la toma de decisiones en situaciones en que no se tiene certeza ontológica de su evolución, debido a causas como la falta de información confiable. Es básicamente una de las formas de acercarnos a conocer el mundo subatómico, en donde el sujeto observador establece los criterios de medición y observación de sistemas que escapan a nuestras sensaciones directas.

5 Pensamiento Variacional: tiene que ver con la manera en que se reconoce, se percibe e interpreta la variación y el cambio en diferentes contextos, así como con la manera en que se modela, sintetiza y representa. Habilidad fundamental en la construcción de la Física, por permitirnos sistematizar la información que ofrece la experiencia cotidiana y de laboratorio.
Otra forma de ilustrar la relación entre los tipos de pensamiento matemático y los conceptos físicos, es por medio de la primera ley de Newton. El motivo por el cual se escogió esta ley en particular es debido a que los estudiantes3 suelen pensar que es una ley cualitativa y no tiene nada que ver con las matemáticas. Sin embargo, un análisis más elaborado muestra que profundizar en la comprensión de la ley de inercia, involucra el desarrollo de algunos de los pensamientos matemáticos mencionados.

Sabiendo que la primera ley de Newton anuncia que: “Todo cuerpo permanece en reposo o en movimiento uniforme a menos que sobre el actué una fuerza”[8] Cuando dice: todo cuerpo, lleva a pensar en la forma que tiene tal cuerpo, así como su ubicación en el espacio (pensamiento espacial), del mismo modo que se debe representar dicho cuerpo como puntual para comprender más fácilmente los efectos de las fuerzas que actúan sobre él, lo cual es una representación que obliga al pensamiento a hacer una abstracción. Cuando se dice; permanece en reposo, lleva a establecer las condiciones bajo las cuales el cuerpo está en reposo, así como obliga a definir el movimiento, dado que para un observador el cuerpo puede estar en reposo (una persona que viaja a la misma velocidad y en la misma dirección del cuerpo, vería que ni el cuerpo ni él se mueven, por lo que asegura que el cuerpo está en reposo), pero para otra persona que no viaja a la misma velocidad del objeto, sino menor, vería que el cuerpo se aleja. Podemos entonces preguntarnos ¿el cuerpo está en reposo ó se mueve?, la única manera de resolver esta pregunta es estableciendo un sistema de referencia (pensamiento métrico y espacial).
De esa forma la respuesta sería: está en reposo si se mira desde el sistema de referencia del primer observador, y se mueve si se hace desde el sistema de referencia del segundo observador, clásicamente los movimientos percibidos por los dos observadores están relacionados por medio de las transformaciones Galileanas y si hacemos consideraciones modernas (velocidades relativas comparables a la de la luz) estos movimientos se relacionan por medio de las transformaciones de Lorentz, esto implica una matematización del sistema físico al cual nos estamos refiriendo (pensamiento variacional).
 Continuando con la ley… a menos que sobre él actúe una fuerza…lleva a caracterizar la fuerza como una acción que produce cambios en el estado de movimiento de un cuerpo y cuya representación más apropiada para el caso es la vectorial (pensamiento numérico, métrico, espacial, variacional). El hecho de tener que hacer abstracciones, establecer y caracterizar un sistema de referencia, definir fuerza y analizar los estados de movimiento, implica que la primera ley de Newton no puede ser considerada como una ley que no tiene nada que ver con las matemáticas y por tanto al utilizar “matematizaciones, o recurrir al uso de habilidades enmarcadas en los distintos tipos de pensamiento matemático” para resolver o para sintetizar un problema físico, ya no se hablaría de un conocimiento físico, sino de un conocimiento Físico-Matemático.


4.2 EL PFM COMO UN OBJETO DE ESTUDIO DE LA DIDÁCTICA DE LA FÍSICA
Se ha caracterizado en las secciones anteriores el Pensamiento Físico-Matemático como un conjunto de habilidades que se deben desarrollar en nuestros estudiantes para que estos puedan formarse imágenes sobre alguna fenomenología física. Se ha considerado además que la Didáctica de la Física debe ser vista más allá de la aplicación metodológica de las distintas corrientes pedagógicas, y debe asumirse entonces como una disciplina autónoma que cuenta con sus propios objetos de estudio y sus propias metodologías de investigación, en donde esta visión de la Didáctica de la Física la ubica como la encargada de “investigar sobre los saberes y sobre los procesos mentales del docente y los estudiantes de Física, así como los elementos de apoyo y las particularidades del espacio académico de la Física con el fin de aprovechar esta rama del conocimiento para procurar el desarrollo de las personas y los grupos sociales”[2].
Esta visión de didáctica de la física también involucra un aspecto muy importante que tiene que ver con la visión que tiene el docente de física sobre la finalidad de enseñar Física, que por lo general es que: “el estudiante que estudia Física aprenda Física”, esta visión centra su atención en el desarrollo de la Física misma, en donde el concepto o la teoría se convierten en la meta a conseguir, muy distinto a asumir como un objetivo de la enseñanza de la Física que los estudiantes desarrollen su pensamiento científico por medio de la Física, donde el concepto o la teoría no son la meta a conseguir sino una herramienta de trabajo por medio de la cual el docente de física pretende que el estudiante desarrolle su pensamiento, en este caso hablamos particularmente de el Pensamiento Físico-Matemático.


5. CONCLUSIONES
 Establecer a la didáctica de la física como una disciplina autónoma involucra un cambio radical en lo que se refiere a tres aspectos: 

1 El docente de Física: debe asumirse como un investigador que investiga sobre: su ejercicio como docente, el desarrollo de su pensamiento, estrategias para la formación de habilidades de pensamiento de sus estudiantes por medio de los conceptos de la física, desde donde estos sean capaces de adelantar sus propias investigaciones en pro de su crecimiento como personas y como integrantes de una sociedad.

2 El uso de los conceptos y teorías de la Física: deben ser considerados como una herramienta de trabajo dentro y fuera del aula desde donde formar habilidades de pensamiento en los estudiantes y no como la meta a conseguir.

3 El desarrollo del Pensamiento Físico-Matemático: corresponde a uno de los objetos de estudio de la didáctica física, a partir del cual el estudiante construye y da significados a los diferentes fenómenos físicos por medio de la matematización de un sistema que a su vez requiere del desarrollo de los cinco tipos de Pensamiento Matemático.

6. BIBLIOGRAFÍA
 [1] Adúriz, A. Izquierdo, M., Acerca de la didáctica de las ciencias como disciplina autónoma, Revista Electrónica de Enseñanza de las Ciencias, 1,3:130-140. [2] Vizcaíno, D. Castiblanco, O. ¿Qué es Didáctica de la Física?. Memorias “X Conferencia Interamericana de Educación en Física”. Universidad de Antioquia. Medellin. 2009. [3] Gil. D., New trends in science education. International Journal of Science Education, 1996, pp. 889-901. [4] Gil, D. Carrascosa, J. Martínez, S., Una disciplina emergente y un campo específico de investigación. En F.J. Perales y P. Cañal (Eds.), “Didáctica de las ciencias experimentales. Teoría y práctica de la enseñanza de las ciencias”, Alcoy: Marfil, (2000), pp. 11-34. [5] Castiblanco, O. Vizcaíno, D., La didáctica de la Física desde la formación de imágenes en el pensamiento, Journal of Science Education. vol 10. Special Issue. Universidad Antonio Nariño. Memorias “International Congress of Science Education” Cartagena, 2009, pp. 75 [6] Ministerio de Educación Nacional. Estándares Básicos de Competencias en Lenguaje, Matemáticas, Ciencias y Ciudadanas, 2006. [7] Zapata, G. Quintero, M. Quintero, R. Rojas, R. Moreno, F. Silva, G. Villegas, A. Arrubla, M. Pensamiento numérico y sistemas numéricos: interpretación e implementación de los estándares básicos de matemáticas. Medellín: Digital Express Ltda. pp. 17. [8] Marion J. Dinámica clásica de las partículas y sistemas. 2nd edición, Editorial Reverté, Barcelona, 2003, pp. 52.

Gracias :)

Entradas populares