Sign In

Video Games Blog

Basic Search
Clear All
More filter options
Basic search
Clear All
Showing 1 - 15 from 43
logo
Manual de Usuario: unixODBC Manual de Usuario: unixODBC CSR

Peter Harvey
Artículo Original: https://www.unixodbc.org/doc/UserManual/

Bienvenido al Manual de Usuario de unixODBC. Este manual está dirigido a personas que utilizarán unixODBC para acceder a fuentes de datos desde herramientas y aplicaciones desarrolladas por terceros. Este manual complementa el Manual del Administrador y el Manual del Programador, cada uno de los cuales está dirigido a un público más técnico.

Primeros pasos

En este punto, unixODBC ha sido instalado por el administrador del sistema. El administrador del sistema debe haber instalado y registrado al menos un controlador ODBC. Para ello, siga las instrucciones del Manual del administrador.

Necesitará una cuenta en la máquina UNIX/Linux, que también le proporcionará su administrador del sistema. De hecho, si tiene problemas en algún punto de este manual, debería consultar a su Administrador de Sistemas para asegurarse de que todo el software necesario está instalado, las cuentas asignadas y los privilegios concedidos. También es posible que desee hablar con su Administrador de Base de Datos (DBA) para asegurarse de que tiene acceso a su base de datos y para resolver cualquier duda sobre qué controlador utilizar y qué opciones configurar.

A los usuarios de UNIX se les puede dar una amplia variedad de métodos para acceder a los recursos de su cuenta y estos métodos de acceso normalmente caen en una de dos categorías.

  1. cuenta shell (sesiones telnet y terminal)
  2. escritorio gráfico

Si se limita a una cuenta shell, no podrá utilizar las herramientas ODBCConfig y DataManager.

Ya estamos listos para empezar a utilizar las herramientas unixODBC. Lo primero que debes hacer es verificar que tienes un DNS de Sistema funcionando. Si no lo tiene; entonces debe crear un DNS de Usuario. Estas tareas se pueden realizar utilizando la herramienta ODBCConfig.

Uso de ODBCConfig

La herramienta ODBCConfig está diseñada para permitirte configurar fácilmente una Fuente de Datos (DSN). Los DSN actúan como un punto de acceso para llegar a tus datos. En muchos casos, crear un DSN es tan sencillo como elegir un controlador, seleccionar un servidor e introducir un nombre para el DSN. De hecho, DSN significa Nombre de Fuente de Datos.

El uso de la herramienta ODBCConfig le resultará bastante intuitivo gracias a su sencilla interfaz gráfica de usuario (véase la Imagen 1), pero debe comprender algunos términos antes de empezar.

Manual de Usuario: unixODBC

Imagen 1


DSN de usuario

Estas son sus fuentes de datos personales. Puede añadir nuevas, eliminar y/o configurar las existentes. La información del DSN de usuario se almacena en una ubicación secreta a la que sólo usted puede acceder. Mantener sus DSN de usuario separados de otros DSN le permite una gran flexibilidad y control sobre la creación y el trabajo con fuentes de datos que sólo son importantes para usted.

DSN de Sistema

Son creados por el Administrador del Sistema. Actúan de forma muy parecida a los DSN de usuario, pero con tres diferencias importantes.

  1. SÓLO el Administrador del Sistema puede; Añadir, Eliminar y Configurar DSN's del Sistema.
  2. Los DSN de sistema sólo se utilizarán si el DSN no existe como DSN de usuario. En otras palabras; su DSN de Usuario tiene precedencia sobre el DSN de Sistema.
  3. Todos comparten la misma lista de DSN de sistema.

Drivers

Los Drivers contienen el código especial necesario para comunicarse con el tipo específico de base de datos con el que se va a trabajar. Suelen proceder del proveedor de la base de datos, pero también pueden encontrarse en el paquete unixODBC. El administrador del sistema es el único usuario que puede instalar y registrar un driver. Usted seleccionará el Driver a utilizar cuando añada un nuevo DSN.

Añadir un DSN

Querrá asegurarse de que tiene al menos un DSN funcionando. Aquí tiene una guía rápida paso a paso para crear su primer DSN de usuario. No lo usaremos todavía porque eso implicará usar otras herramientas y aún no hemos hablado de ellas.

1. Ejecutar ODBCConfig

Esto puede hacerse de varias maneras. Si sabes que tienes un icono o un elemento de menú para ODBCConfig en tu escritorio, ejecútalo utilizando uno de estos métodos. Si no lo tiene, inicie un shell e introduzca el comando ODBCConfig. Debería aparecer una ventana emergente (ver Imagen 1).

2. Añada

Haga clic en la pestaña DSN de usuario para asegurarse de que está trabajando con DSN de usuario. Haga clic en el botón Añadir. Seleccione un driver de la lista. Si la lista está vacía, póngase en contacto con el administrador del sistema; sólo el administrador del sistema puede añadir controladores. En este ejemplo intentaremos utilizar el Controlador de Archivos de Texto. Seleccione el Driver de Archivo de Texto si lo tiene disponible.

3. Editar Opciones

Aparecerá una lista de opciones DSN que puede editar. La Imagen 2 muestra las opciones para el controlador de archivos de texto, pero es posible que tenga un conjunto diferente de opciones si ha seleccionado un controlador distinto. Las opciones comunes son: Nombre (debe introducirse un nombre único). Descripción, Trace y TraceFile.

Manual de Usuario: unixODBC

Imagen 2

Introduzca un nombre único, escriba un comentario, desactive Trace y haga clic en Ok para guardarlo. Puede hacer clic en Configurar, en la ventana principal, para volver a estas opciones en cualquier momento en el futuro.

4. Ya ha terminado

Observa que ahora tienes tu nuevo DSN listado en el formulario principal. Esto significa que puede intentar utilizarlo en cualquier herramienta o aplicación que utilice DSNs ODBC para el acceso a datos. Esto incluye muchas aplicaciones como procesadores de texto y hojas de cálculo. Puede probar su DSN utilizando el DataManager.

Resumen

ODBCConfig es una herramienta útil para PowerUsers pero es lo suficientemente simple para que casi cualquier usuario pueda usarla. ODBCConfig expone la razón más importante para usar ODBC para acceder a sus datos; la habilidad para usted o su Administrador de Sistemas de cambiar la Fuente de Datos para sus herramientas y aplicaciones. Por favor, tómese un tiempo para familiarizarse con ODBConfig y sus opciones de Driver, quizás siéntese con alguien que sea un poco más técnico y hable sobre ello durante uno o dos minutos. Será recompensado.

Uso del DataManager

El DataManager es una gran herramienta gráfica para explorar sus fuentes de datos. Le permite explorar sus Fuentes de Datos de una manera similar a la exploración de su sistema de archivos. El DataManager (ver Imagen 6) está dividido en dos vistas. A la izquierda se encuentra la vista en árbol. La vista en árbol es donde puede desglosar la información que le interese. A la derecha tiene una vista detallada. La vista detallada muestra cualquier detalle que pueda estar disponible para el elemento seleccionado en la vista en árbol.

Al igual que ODBCConfig, puede ejecutar el DataManager de varias formas. Una forma es ir a un intérprete de comandos e introducir el comando DataManager. Aparecerá una ventana similar a la de la Imagen 6.

Manual de Usuario: unixODBC

Imagen 6

A continuación, despliegue los nodos para acceder a la información que le interese. Se le pedirá que inicie sesión si intenta profundizar más allá de una Fuente de Datos. En ese caso, introduzca el nombre de usuario y la contraseña que le proporcionó el administrador de la base de datos o el administrador del sistema. Sabrá que ha iniciado sesión cuando la pequeña pantalla del ordenador cambie de Rojo a Verde.

Una de las Vistas Detalladas más interesantes se produce cuando selecciona un elemento de Fuente de Datos en la Vista en árbol cuando ha iniciado sesión en ella (la pequeña pantalla del ordenador es Verde). La Vista Detallada es un editor SQL. Esto sólo es útil si conoce el lenguaje de comandos SQL, pero para aquellos que no lo conocen... puede ser muy útil.

Resumen

La herramienta DataManager es una buena manera de probar un DSN y luego ver qué recursos están disponibles dentro de la fuente de datos. También es muy fácil de usar.

Usando isql

Esta es una herramienta de línea de comandos. Esto significa que puedes utilizarla incluso si no estás trabajando en un Escritorio Gráfico (por ejemplo; en una sesión telnet). Esta herramienta está diseñada para usos más avanzados de unixODBC. Puede utilizar isql para probar una conexión, pero está diseñado para ser utilizado por aquellos que tienen experiencia con el Lenguaje de Consulta Estructurado (SQL). Probablemente no quieras utilizar esta herramienta si no estás familiarizado con SQL.

isql le permite;

  1. conectarse a su Fuente de Datos (usando un DSN)
  2. enviar comandos SQL a la Fuente de Datos
  3. recibir resultados de la Fuente de Datos

Esta herramienta puede actuar en modo batch o en modo interactivo. La Imagen 3 muestra una simple sesión interactiva.

Manual de Usuario: unixODBC

Imagen 3

La Imagen 4 muestra un ejemplo de isql en modo batch. Observe que se le indica que ejecute una consulta similar a la anterior, pero esta vez procedente de un archivo ( Mi.sql ).


Manual de Usuario: unixODBC

Imagen 4

El ejemplo de la Imagen 4 también formatea los resultados en una tabla HTML y los envía a un nuevo archivo ( Mi.html ). La Imagen 5 muestra la tabla HTML resultante.

Manual de Usuario: unixODBC

Imagen 5

Resumen

isql es una potente herramienta para trabajar SQL y acceder a su fuente de datos, pero es más para el usuario avanzado.

StarOffice 5

StarOffice es una aplicación similar en objetivos a MS Office. Puede descargarse una versión gratuita, para uso no comercial, desde el sitio web de StarDivisions. La Imagen 7 muestra una tabla PostgreSQL siendo explorada en StarOffice. Puede utilizar datos ODBC, pero puede resultar complicado ponerlo en marcha. He aquí algunas cosas a tener en cuenta sobre el uso de StarOffice con unixODBC. Asegúrese de que unixODBC está instalado en su máquina antes de intentar usar ODBC de StarOffice en UNIX.

Manual de Usuario: unixODBC

Imagen 7

Q. StarOffice desaparece cuando intento cargar una lista de DSN ODBC y aparece un error en mi ventana de terminal sobre la falta de algún archivo de biblioteca...

A. Si tiene StarOffice 5.0 puede intentar añadir lo siguiente a su script de inicio de soffice export LD_PRELOAD=/usr/lib/libodbc.so Su script de inicio de soffice se encuentra en Office50/bin/soffice y puede editarse con cualquier editor de texto. Si no está seguro de dónde está libodbc.so o dónde está soffice, puede utilizar el comando find de UNIX.

Sin embargo, con la versión de StarOffice 5.1 y posteriores, todo lo que tiene que hacer es añadir la ruta a libodbc.so a /etc/ld.so.conf o a su variable de entorno LD_LIBRARY_PATH.

Q. ¿Funcionan todos los controladores ODBC con StarOffice?

A. StarOffice es muy exigente con los controladores ODBC. StarOffice necesita muchas características ODBC para aceptar un controlador. Dos controladores que se sabe que funcionan son: 1. PostgreSQL y 2. MySQL. Se está trabajando activamente en otros controladores.

Resumen

StarOffice es una "estrella" en ascenso en el mundo UNIX. Puede combinar StarOffice con unixODBC para acceder a sus datos. Con StarOffice y unixODBC puede extraer sus datos en una hoja de cálculo, un procesador de textos o incluso crear formularios web basados en sus datos.

Conclusión

unixODBC viene con una variedad de herramientas útiles y potentes que le permiten configurar su acceso ODBC y trabajar con sus datos ODBC. Familiarizarse con estas herramientas es un gran comienzo para utilizar tu ODBC en aplicaciones como procesadores de texto, hojas de cálculo e incluso aplicaciones desarrolladas en tu empresa de empleo. Espero que las disfrute. Envíeme sus comentarios y/o sugerencias por correo electrónico, [email protected].

By Marglin Araujo

December 27, 2023

Read post
logo
Índice de masa corporal (IMC) Índice de masa corporal (IMC) CSR

Calcule su "nuevo IMC"

En su edición del 5 de enero de 2013, The Economist publicó esta carta mía:

SIR - El índice de masa corporal con el que usted (y el Servicio Nacional de Salud) cuentan para evaluar la obesidad es una medida extraña. Vivimos en un mundo tridimensional y, sin embargo, el IMC se define como el peso dividido por la altura al cuadrado. Se inventó en la década de 1840, antes de las calculadoras, cuando una fórmula tenía que ser muy simple para ser utilizable. Como consecuencia de esta definición infundada, millones de personas bajas se creen más delgadas de lo que son, y millones de personas altas se creen más gordas.

Nick Trefethen

Profesor de análisis numérico

Universidad de Oxford

La aparición de esta carta, ciertamente muy dura, ha dado lugar a comunicaciones de muchas personas de todo el mundo, y me gustaría explicar una fórmula que creo que valdría la pena considerar como alternativa.

Fórmula actual: IMC = peso(kg)/altura(m)^2 = 703*peso(lb)/altura(pulg)^2.

Lo extraño es la aparición de ese exponente 2, aunque nuestro mundo sea tridimensional. Se podría pensar que el exponente debería ser simplemente 3, pero eso no coincide en absoluto con los datos. Se sabe desde hace tiempo que las personas no se escalan de forma perfectamente lineal a medida que crecen. Propongo que una mejor aproximación a los tamaños y formas reales de los cuerpos sanos podría venir dada por un exponente de 2,5. Así pues, he aquí la fórmula que creo que merece la pena considerar como alternativa al IMC estándar:

Nueva fórmula: IMC = 1,3*peso(kg)/altura(m)^2,5 = 5734*peso(lb)/altura(pulg)^2,5

Los números 1,3 y 5734 están diseñados para que la lectura del IMC no cambie para un adulto de estatura media, que yo considero de unas 66,5 pulgadas, es decir, 1,69 metros. (La raíz cuadrada de 1,69 es 1,3.) Para encontrar su "Nuevo IMC", pruebe la Nueva Calculadora de IMC escrita por Nick Hale.

¿Estos números son "correctos"? No, porque los seres humanos son complicados y cualquier fórmula de IMC sólo proporciona un número. Ningún número puede ser correcto y, de hecho, la extrema dependencia de las instituciones médicas y aseguradoras actuales de una fórmula simple me preocupa mucho. Pero quizá esta fórmula revisada refleje mejor que la estándar cómo el peso de los adultos sanos depende realmente de su estatura.

¿Habría alguna diferencia? Pues sí. A grandes rasgos, cada persona de 1,80 metros de altura perdería un punto de su IMC y cada persona de 1,50 metros ganaría un punto. Son millones de personas. Si las nuevas cifras dieran una indicación más precisa de los problemas de salud reales, esto podría ser un cambio significativo para mejor.

¿Qué hay de la densidad muscular frente a la grasa? Oímos hablar de ello con frecuencia en los debates sobre el IMC (incluso en el artículo de The Economist al que respondía, que mencionaba a los levantadores de pesas olímpicos), pero se trata de un efecto menor. El músculo es un 18% más denso que la grasa. Esto significa que si se ejercitara heroicamente tanto que convirtiera el 10% de su volumen corporal de grasa a músculo (¡vaya!), su lectura del IMC subiría sólo un 1,8%. Eso es mucho menos que las correcciones que acabamos de mencionar para las personas bajas o altas.

¿Qué ocurre con los hombres y las mujeres? Es una pregunta fascinante. Por término medio, las mujeres son un 8% más bajas que los hombres, por lo que si pasamos del IMC actual al nuevo IMC, el valor típico de una mujer subiría un 2% y el de un hombre bajaría un 2%. Puede parecer poco, pero es alrededor de medio punto de IMC, por lo que llevaría a muchas personas más allá de los límites normal/sobrepeso o sobrepeso/obesidad (25 y 30, respectivamente). A veces se dice que las mujeres pueden tener un IMC más alto que los hombres antes de sufrir los efectos de la obesidad. De ser cierto, ¿se trata en parte de una anomalía causada por la definición actual de IMC? No lo sé.

Debo terminar subrayando que soy matemático aplicado, no médico ni epidemiólogo. Las nuevas fórmulas propuestas más arriba no se basan en estudios epidemiológicos, y pueden no suponer una mejora por todo tipo de razones. Para hacerse una idea de la complejidad de la cuestión del IMC, un buen lugar para empezar es el artículo de Wikipedia sobre el tema, y para un artículo epidemiológico clave que apoya el uso del exponente 2,0, véase S. B. Heymsfield et al., American Journal of Clinical Nutrition, 2007. La obesidad será uno de los mayores problemas sanitarios del siglo XXI en todo el mundo. Si se va a depositar una gran confianza en una única fórmula para evaluarla, la justificación de esa fórmula merece un debate cuidadoso.

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

[El profesor Alain Goriely, de Oxford, ha contribuido con los siguientes fascinantes comentarios. Parece que el propio inventor de la fórmula del IMC mencionó el exponente 2,5].

El IMC fue discutido por primera vez por Quetelet, el primer científico belga (publicó su investigación sobre el peso de los hombres a diferentes edades en 1832, 2 años después de la creación de Bélgica, así que de hecho fue el primero).

El IMC se conoció durante muchos años como índice de Quetelet, hasta que el estadounidense Ancel Keys lo rebautizó como IMC. Pero el propio Quetelet era muy consciente de la [complejidad de la] elección del escalado. He aquí una cita de su libro "Tratado sobre el hombre y el desarrollo de sus facultades", 1842:

Si el hombre aumentara por igual en todas las dimensiones, su peso a diferentes edades sería como el cubo de su estatura. Ahora bien, esto no es lo que realmente observamos. El aumento de peso es más lento, excepto durante el primer año después del nacimiento; entonces, la proporción que acabamos de señalar se observa con bastante regularidad. Pero después de este período, y hasta cerca de la edad de la pubertad, el peso aumenta casi como el cuadrado de la altura. El desarrollo del peso vuelve a ser muy rápido en la pubertad y casi se detiene después de los veinticinco años. En general, no nos equivocamos mucho cuando suponemos que durante el desarrollo, los cuadrados del peso a diferentes edades son como las quintas potencias de la altura, lo que naturalmente lleva a esta conclusión, en apoyo de la constante de gravedad específica, que el crecimiento transversal del hombre es menor que el vertical.

[En el párrafo siguiente, sin embargo, Quetelet sugiere efectivamente el exponente 2 para los adultos plenamente desarrollados].

Original article: https://people.maths.ox.ac.uk/trefethen/bmi.html

By Abner Roa

August 21, 2023

Read post
logo
Notas sobre los Doctorados Notas sobre los Doctorados CSR

por Douglas E. Comer
Artículo Original: https://www.cs.purdue.edu/homes/dec/essay.phd.html

La semana pasada, en la hora del café del coloquio del departamento, varios estudiantes entablaron un debate con el profesorado sobre nuestro programa de doctorado. Quedó claro que muchos de los estudiantes no entendían los conceptos básicos; les sorprendieron algunas de las preguntas y les confundieron algunas de las respuestas.

Estas notas proporcionan información básica sobre el propósito de un programa de doctorado en un intento de ayudar a los estudiantes a decidir si desean cursar un doctorado.

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Fundamentos

El título de Doctor en Filosofía, abreviado Ph.D., es el más alto grado académico que se puede obtener. Dado que la obtención de un doctorado requiere un estudio prolongado y un intenso esfuerzo intelectual, menos del uno por ciento de la población obtiene este título. La sociedad muestra respeto por una persona que posee un doctorado dirigiéndose a ella con el título de “Doctor”.

Para obtener un doctorado hay que lograr dos cosas. En primer lugar, hay que dominar por completo un tema específico. En segundo lugar, hay que ampliar los conocimientos sobre ese tema.

Dominar un tema

Para dominar un tema, el estudiante busca en la literatura publicada y lee todo lo que se ha escrito sobre él. En las disciplinas científicas, el estudiante empieza estudiando obras de referencia general, como los libros de texto. Con el tiempo, el estudiante también debe buscar en revistas académicas, las publicaciones que los científicos utilizan para intercambiar información y registrar los informes de sus investigaciones científicas.

Cada universidad establece las directrices generales que debe seguir un estudiante para obtener el título de doctor, y cada facultad o departamento de una universidad fija los criterios específicos con los que mide el dominio de una materia. Por lo general, para prepararse para el doctorado en un campo determinado, el estudiante debe obtener una licenciatura y un máster (o su equivalente) en ese campo o en un campo estrechamente relacionado. Para demostrar un dominio completo de la materia, es posible que el estudiante deba realizar cursos adicionales de posgrado, mantener una alta media de calificaciones o presentarse a una serie de exámenes especiales. En muchas instituciones, los estudiantes deben hacer las tres cosas.

Dado que los exámenes que se realizan como parte del plan de estudios de un doctorado evalúan conocimientos especializados, son creados y evaluados por un comité de expertos, cada uno de los cuales posee un título de doctor.

Ampliar conocimientos

La esencia de un doctorado, el aspecto que distingue los estudios de doctorado de otros trabajos académicos, puede resumirse en una sola palabra: investigación. Para ampliar el conocimiento, hay que explorar, investigar y contemplar. La comunidad científica utiliza el término investigación para captar esta idea.

En las disciplinas científicas, la investigación suele implicar experimentación, pero la investigación es más que meros experimentos: significa interpretación y comprensión profunda. Para los informáticos, investigar significa buscar para descubrir los principios que subyacen a la computación y la comunicación digitales. Un investigador debe descubrir nuevas técnicas que ayuden a construir o utilizar mecanismos computacionales. Los investigadores buscan nuevas abstracciones, nuevos enfoques, nuevos algoritmos, nuevos principios o nuevos mecanismos.

Para completar un doctorado, cada estudiante debe presentar los resultados de su investigación al profesorado en un documento extenso y formal llamado disertación (más popularmente conocida como tesis). A continuación, el estudiante debe presentar su disertación al profesorado y defender su trabajo en un examen oral.

Relación con los productos

En algunos casos, los resultados de la investigación científica pueden utilizarse para desarrollar nuevos productos o mejorar los ya existentes. Sin embargo, los científicos no utilizan el éxito comercial o los posibles beneficios comerciales como medida de su trabajo; realizan investigaciones para ampliar la comprensión humana y el conjunto de conocimientos que los seres humanos han recopilado. A menudo, los beneficios comerciales de la investigación científica son mucho mayores a largo que a corto plazo.

Actividades de investigación

La investigación en Ciencias de la Computación puede incluir actividades tan diversas como el diseño y la construcción de nuevos sistemas informáticos, la demostración de teoremas matemáticos, la escritura de programas informáticos, la medición del rendimiento de un sistema informático, el uso de herramientas analíticas para evaluar un diseño o el estudio de los errores que cometen los programadores al construir un gran sistema de software. Dado que el investigador elige las actividades apropiadas para responder a cada pregunta que se plantea en una investigación, y dado que surgen nuevas preguntas a medida que avanza la investigación, las actividades de investigación varían de un proyecto a otro y a lo largo del tiempo en un mismo proyecto. Un investigador debe estar preparado para utilizar diversos enfoques y herramientas.

Algunas preguntas

Muchos de ustedes están intentando decidir si cursar un doctorado. He aquí algunas preguntas que podría hacerse.

1. ¿Quiere dedicarse a la investigación?

Antes de matricularse en un programa de doctorado, debe considerar detenidamente sus objetivos a largo plazo. Dado que el doctorado es una formación para la investigación, debe preguntarse si su objetivo a largo plazo es un puesto de investigador. Si lo es, el doctorado es el camino normal hacia la carrera elegida (algunas personas han conseguido un puesto de investigación sin el doctorado, pero son la excepción, no la regla). Si, por el contrario, quieres una carrera no relacionada con la investigación, el doctorado definitivamente no es para ti.

2. ¿Desea un puesto académico?

El doctorado es de facto la "tarjeta de acceso" a un puesto académico. Aunque es posible obtener un puesto académico sin un doctorado, las posibilidades son escasas. Las grandes universidades (y la mayoría de las facultades) exigen que todos los miembros de su profesorado tengan un doctorado y se dediquen a la investigación. ¿Por qué? Para asegurarse de que el profesorado tiene conocimientos suficientes para impartir cursos avanzados y para obligarle a mantenerse al día en el campo que ha elegido. El protocolo diplomático del Departamento de Estado de EE.UU. sitúa el título de "profesor" por encima del de “doctor”. Lo hace en reconocimiento de los requisitos académicos: la mayoría de los catedráticos son doctores, pero no todos los doctores son catedráticos.

3. ¿Tienes lo que hay que tener?

Es difícil para una persona evaluar sus propias capacidades. Las siguientes directrices y preguntas pueden ser de ayuda:

Inteligencia:

En sus cursos universitarios y de posgrado, ¿estuvo más cerca de los primeros de su clase o de los últimos? ¿Qué tal le fue en el GRE u otros exámenes estandarizados?

Tiempo:

¿Está preparado para afrontar un proyecto de mayor envergadura que cualquier otro que haya emprendido antes? Debes comprometerte a trabajar duro durante varios años. ¿Estás dispuesto a reducir o renunciar a otras actividades?

Creatividad:

Los descubrimientos de la investigación suelen surgir cuando se observan hechos antiguos de una forma nueva. ¿Brilla usted cuando resuelve problemas? ¿Le gustan los rompecabezas? ¿Se le da bien resolverlos? En la escuela, ¿le gustaban o le costaban las matemáticas avanzadas?

Curiosidad intensa:

¿Siempre ha sentido la necesidad de entender el mundo que le rodea y averiguar cómo funcionan las cosas? Una curiosidad natural facilita la investigación. ¿Cumplió los requisitos mínimos o exploró más por su cuenta?

Adaptabilidad:

La mayoría de los estudiantes no están preparados para estudiar un doctorado. Les resulta inesperadamente diferente a los cursos. De repente, se ven inmersos en un mundo en el que nadie conoce las respuestas, por lo que a veces fracasan. ¿Puede adaptarse a nuevas formas de pensar? ¿Puede tolerar la búsqueda de respuestas incluso cuando nadie conoce las preguntas precisas?

Automotivación:

Cuando un estudiante termina sus estudios universitarios, ya se ha acostumbrado a recibir las notas de cada asignatura cada semestre. En un programa de doctorado, el trabajo no se divide ordenadamente en cursos separados, los profesores no dividen las tareas en pequeños trabajos y el estudiante no recibe una calificación por cada pequeño paso. ¿Tienes la motivación suficiente para seguir trabajando por un objetivo sin que te animen día a día?

Competitividad:

Si decide matricularse en un programa de doctorado, competirá con otros en la cima. Y lo que es más importante, una vez que se gradúe, entre sus compañeros se encontrarán algunas de las personas más brillantes del mundo. Se le medirá y juzgará en comparación con ellos. ¿Estás dispuesto a competir a nivel de doctorado?

Madurez:

En comparación con los cursos, que están cuidadosamente planificados por un profesor, los estudios de doctorado están menos estructurados. Tendrás más libertad para fijar tus propios objetivos, determinar tu horario diario y seguir ideas interesantes. ¿Está preparado para aceptar la responsabilidad que conllevan estas libertades adicionales? Tu éxito o fracaso en la investigación de doctorado depende de ello.

Algunas advertencias:

A veces, los estudiantes se matriculan en un programa de doctorado por razones equivocadas. Al cabo de un tiempo, se dan cuenta de que los requisitos les abruman. Antes de empezar, hay que darse cuenta de que un doctorado no es:

Prestigioso en sí mismo

Casi todos los que han obtenido un doctorado están orgullosos de sus esfuerzos y del resultado. Sin embargo, debe comprender que, una vez que se gradúe, trabajará entre un grupo de científicos que poseen cada uno un título de doctor. (Un miembro del profesorado solía reprender a los arrogantes estudiantes de posgrado diciéndoles: "No entiendo por qué crees que es un logro tan grande: ¡todos mis amigos tienen un doctorado!").

Una garantía de respeto a todas tus opiniones

Muchos estudiantes creen que, una vez obtenido el doctorado, la gente respetará automáticamente todas sus opiniones. Sin embargo, aprenderás que poca gente asume que un doctorado en una materia te convierte automáticamente en una autoridad sobre los demás. Esto es especialmente cierto en la comunidad científica: el respeto hay que ganárselo.

Un objetivo en sí mismo

Un doctorado te prepara para la investigación. Si lo único que quiere es un diploma para colgar en la pared, hay formas mucho más sencillas de obtenerlo. Cuando se licencie, tendrá ocasión de comparar sus logros con los de otros científicos. Te darás cuenta de que lo que cuenta es el trabajo de investigación acumulado después de que un científico termine su educación formal.

Una garantía de empleo

Cuando una economía se ralentiza, todos pueden verse perjudicados. De hecho, algunas empresas reducen la investigación antes de reducir la producción, lo que hace especialmente vulnerables a los doctores. Además, una vez que una persona obtiene el doctorado, muchas empresas no la contratan para un puesto que no sea de investigación. Como en la mayoría de las profesiones, la continuidad en el empleo depende del rendimiento continuado.

Una forma práctica de impresionar a tu familia o amigos

Puede que tu madre se sienta orgullosa y emocionada cuando te matricules en un programa de doctorado. Al fin y al cabo, se imagina que pronto podrá presumir de su hijo, “el doctor”. Sin embargo, el deseo de impresionar a los demás no es motivación suficiente para el esfuerzo que requiere.

Algo que puedes “intentar” para saber lo listo que eres

Lo siento, pero no funciona así. A menos que te comprometas totalmente, fracasarás. Tendrás que trabajar muchas horas, enfrentarte a muchas decepciones, poner a prueba tus capacidades mentales y aprender a encontrar el orden entre hechos aparentemente caóticos. A menos que haya adoptado el objetivo a largo plazo de convertirse en investigador, las exigencias del día a día le agotarán. Las exigencias te parecerán innecesariamente altas; el rigor, injustificado. Si sólo lo consideras un examen, acabarás abandonando.

El único tema de investigación al que te dedicarás

Muchos estudiantes cometen el error de considerar su tema de doctorado como un área de investigación para toda la vida. Asumen que cada investigador sólo trabaja en un área, siempre persigue el mismo tema dentro de esa área y siempre utiliza las mismas herramientas y enfoques. Los investigadores experimentados saben que surgen nuevas preguntas constantemente y que las antiguas pueden perder interés con el paso del tiempo o el descubrimiento de nuevos hechos. Los mejores cambian de tema y de área. Eso les mantiene frescos y estimula el pensamiento. Prepárate para el cambio.

Más fácil que entrar en el mercado laboral

Después de empezar, el camino hacia el doctorado se vuelve mucho más empinado. El profesorado impone restricciones a su estudio y no permite que los estudiantes improductivos permanezcan en el programa.

Mejor que las alternativas

Para muchos estudiantes, el doctorado puede ser una maldición. Deben elegir entre estar a la cabeza entre los que tienen un máster o ser un investigador mediocre. A veces, los profesores aconsejan a los estudiantes que elijan entre ser "capitán del equipo B" o "jugador de banquillo" en el equipo A. Cada uno debe decidir lo que quiere. Cada uno debe decidir lo que quiere y qué profesión le estimulará más. Pero los estudiantes deben ser realistas sobre sus capacidades. Si realmente no pueden determinar su posición, pregunten a los miembros de la facultad.

Una forma de ganar más dinero

Aunque desde hace un par de años no tenemos estadísticas, los estudiantes de postgrado solían calcular el "sueldo" utilizando los salarios iniciales de los puestos de doctorado y máster, el tiempo medio necesario para obtener un doctorado, el valor de las opciones sobre acciones y el rendimiento actual de las inversiones. Durante un periodo de al menos cinco años que conozcamos, la rentabilidad fue claramente negativa. Baste decir que uno debe elegir la investigación porque le gusta; un doctorado no es el camino óptimo hacia la riqueza.

Las buenas noticias:

A pesar de todas nuestras advertencias, estamos orgullosos de habernos doctorado y de nuestros logros en investigación. Si tiene la capacidad y el interés, la carrera investigadora puede reportarle recompensas inigualables en cualquier otra profesión. Conocerá y trabajará con algunas de las personas más brillantes del planeta. Alcanzará ideas fuera de su alcance y, al hacerlo, ampliará sus capacidades intelectuales. Resolverá problemas que no se han resuelto antes. Explorará conceptos desconocidos hasta ahora. Descubrirás principios que cambiarán la forma de utilizar los ordenadores.

La alegría de investigar:

Un colega resumió la forma en que muchos investigadores sienten su profesión. Cuando le preguntaron por qué pasaba tantas horas en el laboratorio, señaló que las alternativas eran irse a casa, donde haría lo mismo que millones de personas, o trabajar en su laboratorio, donde podría descubrir cosas que ningún otro ser humano había descubierto jamás. La sonrisa de su cara lo decía todo: para él, trabajar en investigación era pura alegría.

By Abner Roa

May 15, 2023

Read post
logo
Datos para un programador C sobre comportamiento indefinido Datos para un programador C sobre comportamiento indefinido CSR

Por Chris Lattner

Original article: blog.llvm.org/2011/05/what-every-c-programmer-should-know.html

May 13, 2011

#optimization , #Clang

La gente de vez en cuando pregunta por qué el código compilado con LLVM a veces genera señales SIGTRAP cuando el optimizador está activado. Después de indagar, encuentran que Clang generó una instrucción "ud2" (suponiendo código X86) - la misma que es generada por __builtin_trap(). Hay varias cuestiones en juego aquí, todas centradas en el comportamiento indefinido en el código C y cómo LLVM lo maneja.

Esta entrada de blog (la primera de una serie de tres) intenta explicar algunos de estos problemas para que puedas entender mejor las compensaciones y complejidades implicadas, y quizás aprender un poco más de los lados oscuros de C. Resulta que C no es un "ensamblador de alto nivel" como a muchos programadores experimentados de C (particularmente gente con un enfoque de bajo nivel) les gusta pensar, y que C++ y Objective-C han heredado directamente un montón de problemas de él.

Introducción al comportamiento indefinido

Tanto el LLVM IR como el lenguaje de programación C tienen el concepto de "comportamiento indefinido". El comportamiento indefinido es un tema amplio con muchos matices. La mejor introducción que he encontrado al respecto es un artículo en el Blog de John Regehr. La versión corta de este excelente artículo es que muchas cosas aparentemente razonables en C en realidad tienen un comportamiento indefinido, y esta es una fuente común de errores en los programas. Más allá de eso, cualquier comportamiento indefinido en C da licencia a la implementación (el compilador y el tiempo de ejecución) para producir código que formatea tu disco duro, hace cosas completamente inesperadas, o cosas peores. De nuevo, recomiendo encarecidamente la lectura del artículo de John.

El comportamiento indefinido existe en los lenguajes basados en C porque los diseñadores de C querían que fuera un lenguaje de programación de bajo nivel extremadamente eficiente. En cambio, lenguajes como Java (y muchos otros lenguajes "seguros") han evitado el comportamiento indefinido porque quieren un comportamiento seguro y reproducible entre implementaciones, y están dispuestos a sacrificar rendimiento para conseguirlo. Aunque ninguno de los dos es "el objetivo correcto al que aspirar", si eres un programador de C realmente deberías entender qué es el comportamiento indefinido.

Antes de entrar en detalles, vale la pena mencionar brevemente lo que se necesita para que un compilador obtenga un buen rendimiento de una amplia gama de aplicaciones C, porque no hay una solución mágica. A un nivel muy alto, los compiladores producen aplicaciones de alto rendimiento a) haciendo un buen trabajo en los algoritmos básicos como la asignación de registros, la programación, etc. b) conociendo montones y montones de "trucos" (por ejemplo, optimizaciones peephole, transformaciones de bucle, etc.), y aplicándolos siempre que sea rentable. c) siendo buenos en la eliminación de abstracciones innecesarias (por ejemplo, redundancia debido a macros en C, funciones inlining, eliminación de objetos temporales en C++, etc.) y d) no arruinando nada. Aunque cualquiera de las optimizaciones siguientes pueda parecer trivial, resulta que ahorrar sólo un ciclo de un bucle crítico puede hacer que algún códec funcione un 10% más rápido o consuma un 10% menos de energía.

Ventajas del Comportamiento Indefinido en C, con Ejemplos

Antes de entrar en el lado oscuro del comportamiento indefinido y la política y el comportamiento de LLVM cuando se utiliza como compilador de C, pensé que sería útil considerar algunos casos específicos de comportamiento indefinido, y hablar de cómo cada uno permite un mejor rendimiento que un lenguaje seguro como Java. Puedes ver esto como "optimizaciones habilitadas" por la clase de comportamiento indefinido o como la "sobrecarga evitada" que se requeriría para hacer cada caso definido. Aunque el optimizador del compilador podría eliminar algunas de estas sobrecargas algunas veces, hacerlo en general (para cada caso) requeriría resolver el problema de detención y muchos otros "retos interesantes".

También vale la pena señalar que tanto Clang como GCC definen algunos comportamientos que el estándar C deja sin definir. Las cosas que voy a describir son a la vez indefinidas según el estándar y tratadas como comportamiento indefinido por ambos compiladores en sus modos por defecto.

Uso de una variable no inicializada: Esto es comúnmente conocido como fuente de problemas en los programas C y existen muchas herramientas para detectarlos: desde advertencias del compilador hasta analizadores estáticos y dinámicos. Esto mejora el rendimiento al no requerir que todas las variables se inicialicen a cero cuando entran en el ámbito (como hace Java). Para la mayoría de las variables escalares, esto causaría poca sobrecarga, pero las matrices de pila y la memoria malloc'd incurrirían en un memset del almacenamiento, lo que podría ser bastante costoso, sobre todo porque el almacenamiento suele sobrescribirse completamente.

Desbordamiento de entero con signo: Si la aritmética en un tipo 'int' (por ejemplo) se desborda, el resultado es indefinido. Un ejemplo es que no se garantiza que "INT_MAX+1" sea INT_MIN. Este comportamiento permite ciertas clases de optimizaciones que son importantes para algunos códigos. Por ejemplo, saber que INT_MAX+1 es indefinido permite optimizar "X+1 > X" a "verdadero". Saber que la multiplicación "no puede" desbordarse (porque hacerlo sería indefinido) permite optimizar "X*2/2" a "X". Aunque esto puede parecer trivial, este tipo de cosas son comúnmente expuestas por inlining y expansión de macros. Una optimización más importante que esto permite es para "<=" bucles como este:

for (i = 0; i <= N; ++i) { ... }

En este bucle, el compilador puede asumir que el bucle iterará exactamente N+1 veces si "i" es indefinido por desbordamiento, lo que permite una amplia gama de optimizaciones de bucle. Por otro lado, si la variable está definida para envolverse en el desbordamiento, entonces el compilador debe asumir que el bucle es posiblemente infinito (lo que ocurre si N es INT_MAX) - lo que deshabilita estas importantes optimizaciones de bucle. Esto afecta particularmente a las plataformas de 64 bits ya que mucho código utiliza "int" como variables de inducción.

Vale la pena señalar que el desbordamiento sin signo está garantizado para ser definido como desbordamiento de complemento a 2 (envolvente), por lo que siempre se pueden utilizar. El coste de definir el desbordamiento de enteros con signo es que este tipo de optimizaciones simplemente se pierden (por ejemplo, un síntoma común es una tonelada de extensiones de signo dentro de bucles en objetivos de 64 bits). Tanto Clang como GCC aceptan la bandera "-fwrapv" que fuerza al compilador a tratar el desbordamiento de enteros con signo como definido (aparte de la división de INT_MIN por -1).

Desbordamiento de cantidades: Desplazar un uint32_t 32 bits o más no está definido. Mi suposición es que esto se originó porque las operaciones de desplazamiento subyacentes en varias CPU hacen cosas diferentes con esto: por ejemplo, X86 trunca la cantidad de desplazamiento de 32 bits a 5 bits (por lo que un desplazamiento de 32 bits es lo mismo que un desplazamiento de 0 bits), pero PowerPC trunca las cantidades de desplazamiento de 32 bits a 6 bits (por lo que un desplazamiento de 32 produce cero). Debido a estas diferencias de hardware, el comportamiento es completamente indefinido por C (por lo tanto, el desplazamiento de 32 bits en PowerPC podría formatear su disco duro, *no* está garantizado que produzca cero). El coste de eliminar este comportamiento indefinido es que el compilador tendría que emitir una operación extra (como una 'y') para los desplazamientos de variables, lo que los haría el doble de caros en CPUs comunes.

Desreferencias de Punteros Salvajes y Accesos a Matrices Fuera de Límites: La desreferenciación de punteros aleatorios (como NULL, punteros a memoria libre, etc) y el caso especial de acceder a un array fuera de límites es un error común en las aplicaciones C que esperemos no necesite explicación. Para eliminar esta fuente de comportamiento indefinido, los accesos a arrays tendrían que ser comprobados por rango, y la ABI tendría que ser cambiada para asegurarse de que la información de rango sigue alrededor de cualquier puntero que pudiera estar sujeto a la aritmética de punteros. Esto tendría un coste extremadamente alto para muchas aplicaciones numéricas y de otro tipo, además de romper la compatibilidad binaria con todas las bibliotecas C existentes.

Desreferenciación de un puntero NULL: contrariamente a la creencia popular, la desreferenciación de un puntero nulo en C no está definida. No está definido para atrapar, y si se mmappea una página en 0, no está definido para acceder a esa página. Esto se sale de las reglas que prohíben la desreferenciación de punteros salvajes y el uso de NULL como centinela. El hecho de que las desreferencias a punteros NULL no estén definidas permite una amplia gama de optimizaciones: por el contrario, Java hace que no sea válido para el compilador mover una operación de efecto secundario a través de cualquier desreferencia a punteros a objetos que el optimizador no pueda probar que no son NULL. Esto penaliza significativamente la programación y otras optimizaciones. En los lenguajes basados en C, la indefinición de NULL permite un gran número de optimizaciones escalares sencillas que quedan expuestas como resultado de la expansión de macros y el inlining.

Si estás usando un compilador basado en LLVM, puedes hacer dereferencia a un puntero nulo "volátil" para obtener un fallo si eso es lo que estás buscando, ya que las cargas y almacenamientos volátiles generalmente no son tocados por el optimizador. Actualmente no existe ninguna bandera que permita que las cargas aleatorias de punteros NULL sean tratadas como accesos válidos o que haga que las cargas aleatorias sepan que su puntero está "autorizado a ser nulo".

Violación de las reglas de tipo: Es un comportamiento indefinido convertir un int* en un float* y desreferenciarlo (accediendo al "int" como si fuera un "float"). C requiere que este tipo de conversiones de tipo se realicen a través de memcpy: usar conversiones de punteros no es correcto y resulta en un comportamiento indefinido. Las reglas para esto son bastante matizadas y no quiero entrar en detalles aquí (hay una excepción para char*, los vectores tienen propiedades especiales, las uniones cambian cosas, etc). Este comportamiento permite un análisis conocido como "Type-Based Alias Analysis" (TBAA) que es utilizado por una amplia gama de optimizaciones de acceso a memoria en el compilador, y puede mejorar significativamente el rendimiento del código generado. Por ejemplo, esta regla permite a clang optimizar esta función:

float *P;
 void matriz_cero() {
   int i;
   for (i = 0; i < 10000; ++i)
     P[i] = 0.0f;
 }

en "memset(P, 0, 40000)". Esta optimización también permite sacar muchas cargas de los bucles, eliminar subexpresiones comunes, etc. Esta clase de comportamiento indefinido puede desactivarse pasando la bandera -fno-strict-aliasing, que desautoriza este análisis. Cuando se pasa esta bandera, Clang se ve obligado a compilar este bucle en 10000 almacenes de 4 bytes (lo que es varias veces más lento), porque tiene que asumir que es posible que cualquiera de los almacenes cambie el valor de P, como en algo como esto:

int main() {
  P = (float*)&P; // la conversión causa una violación TBAA en zero_array.
  zero_array();
}

Este tipo de abuso de tipos es bastante infrecuente, razón por la cual el comité del estándar decidió que las significativas ganancias de rendimiento merecían la pena por el resultado inesperado de los lanzamientos de tipos "razonables". Vale la pena señalar que Java obtiene los beneficios de las optimizaciones basadas en tipos sin estos inconvenientes, ya que no tiene ningún tipo de fundido de punteros inseguro en el lenguaje.

De todos modos, espero que esto te dé una idea de algunas de las clases de optimizaciones permitidas por el comportamiento indefinido en C. Hay muchas otras clases, por supuesto, incluyendo violaciones del punto de secuencia como "foo(i, ++i)", condiciones de carrera en programas multihilo, violar 'restrict', dividir por cero, etc.

En nuestro próximo post, discutiremos por qué el comportamiento indefinido en C es algo bastante aterrador si el rendimiento no es tu único objetivo. En nuestro último post de la serie, hablaremos de cómo lo manejan LLVM y Clang.

Comandos de Expresión Regulares

Lo que Todo Programador de C Debe Saber Sobre el Comportamiento Indefinido #2/3

By Jose Melgarejo

November 27, 2023

Read post
logo
¿Cómo leer un trabajo de investigación? ¿Cómo leer un trabajo de investigación? CSR

Artículo original: https://sites.cc.gatech.edu/fac/Spencer.Rugaber/txt/researchPaper.html

Por: Spencer Rugaber

30 de agosto de 2006 Instituto Tecnológico de Georgia

En una universidad, a menudo se te pide que leas un artículo o documento académico. Aquí hay algunas pautas y preguntas que puedes hacerte mientras lo haces.

  1. Echa un vistazo al libro, Cómo leer un libro (Mortimer J. Adler y Charles Van Doren, Simon and Schuster, 1940). Ofrece muchos consejos útiles para mejorar tus habilidades de lectura.
  2. Es posible que no puedas entender todo el artículo en una sola lectura. En la primera pasada, obtén la idea general, busca cualquier palabra de vocabulario que no entiendas y anota tus preguntas pendientes. Luego haz otra pasada en la que encajes las piezas del rompecabezas.
  3. Identifica la tesis del artículo y exprésala en una oración simple. La tesis es la idea principal que el autor intenta convencerte. A veces es sorprendentemente difícil determinar esto.
  4. Después de leer el artículo, pregúntate si el autor te ha convencido o no de la tesis. Si no, ¿por qué no? ¿Fue defectuosa la lógica? ¿No se proporcionó suficiente evidencia?
  5. Resume explícitamente el argumento del autor. Es decir, escribe los puntos del argumento del autor y las razones dadas para cada punto.
  6. ¿Cuál es el otro lado del tema? A menudo los autores lo indicarán explícitamente, con mayor o menor grado de parcialidad. Incluso si el autor no menciona el otro lado en absoluto, debes intentar resumir el otro lado del argumento. Después de todo, si no hay otro lado, ¿por qué se escribió el artículo en primer lugar?
  7. ¿Hay preguntas que te quedan rondando la cabeza? A menudo, un autor planteará explícitamente "Trabajo futuro" que se puede realizar para dar seguimiento al trabajo presentado. Por el contrario, el autor puede haber pasado por alto algunas preguntas obvias que el artículo dejó sin respuesta.
  8. De manera más general, trata de caracterizar el campo en el que está trabajando el autor. Muchas veces el autor hará esto explícitamente hablando de "Trabajo relacionado". Y un autor minucioso discutirá cómo su trabajo difiere del de cada uno de los competidores del autor.
  9. ¿Cómo valida el autor su trabajo? Es decir, al presentar un caso, un autor debe proporcionar evidencia que lo respalde. Diferentes campos utilizan diferentes tipos de evidencia. Por ejemplo, los matemáticos proporcionan pruebas; los psicólogos hacen experimentos; y los ingenieros a menudo construyen prototipos. Cuidado con los artículos que ofrecen opiniones pero no te dan la evidencia para apoyarlas.
  10. ¿Cuál fue el estilo del autor? Muchos artículos académicos son bastante (excesivamente) secos, simplemente enunciando los hechos con poco adorno. Otros tienen un carácter más tutorial, utilizando el pronombre en segunda persona ("tú") en lugar del impersonal en tercera persona ("él" / "ella" / "eso"). Algunos usan la voz activa, otros la pasiva. Algunos incluso usan una figura retórica ocasional para animar las cosas.
  11. Aquí hay otro libro que podrías mirar (Writing Arguments: A Rhetoric with Readings, John D. Ramage, John C. Bean, and June Johnson, Longman Publishers, 2004). Describe las técnicas que los autores usan (o usan mal) al expresar sus posiciones. Comprender las técnicas que los autores usan en su escritura puede mejorar tu capacidad de lectura...


By Abner Roa

June 22, 2023

Read post
logo
Sobre la Naturaleza de la Teoría de la Gestión Documental Sobre la Naturaleza de la Teoría de la Gestión Documental CSR

Michael Buckland

School of Information Management and Systems, Universidad de California, Berkeley, CA 94720-4600

Esta ponencia fue presentada en la 35ª Conferencia Anual de la Association of Records Management and Administrators y publicada en Proceedings (Prairie village, KS: ARMA, 1990), 801-813, y reimpresa con algunos cambios menores en American Archivist, vol 57 (primavera 1994): 3346-351. Esta versión puede diferir ligeramente de las versiones publicadas.

Resumen: La teoría se define como una visión o descripción de la naturaleza de algo. Se examina la naturaleza de la teoría relacionada con la teoría de la gestión de documentos de archivo, incluyendo la recuperación de información, el ciclo de vida de los documentos de archivo y la política de información. La teoría de la gestión documental no debe considerarse de forma aislada y no tiene por qué ser exclusiva de la gestión documental. Se esbozan, con ejemplos, los contextos funcionales, profesionales y educativos de la teoría de la gestión documental.

Introducción

Existen diversas opiniones sobre la teoría de la gestión documental:

  1. Que existe una teoría bien definida y establecida que rige la práctica de la gestión de archivos;
  2. Que no existe una teoría que guíe la práctica de la gestión de archivos;
  3. Que existen varias teorías que sustentan la práctica de la gestión documental, pero pertenecen a disciplinas o ciencias afines y se utilizan siempre que se manifiesta la necesidad de una acción basada en principios.

En este documento, argumentaremos que ninguna de las anteriores es correcta. En su lugar, sugerimos que (i) existe un cuerpo de teoría de la gestión documental que aún no ha sido bien formulado; (ii) partes de esta teoría son y serán cada vez más compartidas con otros campos; y (iii) gran parte de ella es, quizás, aún no debidamente reconocida como teoría. Pero primero tenemos que aclarar nuestros términos. En concreto, antes de abordar la pregunta "¿Existe una teoría de la gestión documental?" o, mejor, "¿Qué es la teoría de la gestión documental?", es necesario abordar la pregunta previa "¿Qué es la teoría?" si no queremos perder el tiempo.

¿Qué es la "teoría"?

El significado original y el sentido subyacente de la palabra "teoría" es una visión o perspectiva de algo. En sus orígenes, la palabra "teoría" está relacionada con la palabra "teatro" (Oxford English Dictionary 1989, v. 7, p. 902). En términos más generales, teoría es la visión o descripción que alguien tiene de la naturaleza de algo. En este sentido general hay teoría de cualquier cosa cuya naturaleza se pueda describir.

Uno de los problemas es que la discusión inteligente de la teoría en la mayoría de las áreas se ha visto desviada por el gran prestigio social de las ciencias matemáticas y experimentales, especialmente desde la Segunda Guerra Mundial. La lógica y la física son inusuales en el sentido de que si uno tiene una opinión sobre la naturaleza de algún aspecto de ellas, generalmente puede expresar su punto de vista (su teoría) de tal manera que pueda ser probada experimentalmente y, tal vez, se descubra que es inadecuada. Encontrar pruebas que apoyen las teorías es relativamente fácil y de utilidad limitada. El esfuerzo de buena fe por refutar las teorías es básico para progresar. Por lo tanto, en estas disciplinas se suele esperar que las teorías puedan enunciarse de forma rigurosa y que puedan ponerse a prueba tratando de refutarlas. (Normalmente, una teoría es una hipótesis o combinación de hipótesis que ha resistido algunas pruebas).

Por desgracia, la gente ha asumido que las actividades que no son ciencias "duras" también deben utilizar el mismo sentido restringido y especializado de teoría. Cuando buscan este tipo de teoría rigurosa y de refutación en el desordenado mundo de las actividades humanas, como la prestación y el uso de servicios de información, no encuentran ninguna -¡como era de esperar!- y esta estrecha idea preconcebida con la teoría rigurosa y formal les disuade de fijarse en la teoría adecuada al tema. (Para un ejemplo de búsqueda infructuosa y mal formulada de teoría, véase Boyce y Kraft 1985). Aristóteles lo sabía mejor: "Es una marca del hombre educado y una prueba de su cultura que en cada tema busque sólo tanta precisión como permita su naturaleza". (Aristóteles 1955, 27-28)

No debería existir una dicotomía rígida entre "teoría" y "práctica", ya que en ambas subyace una cierta visión de lo que está en juego (en realidad, teoría). No obstante, el profesional reflexivo de la gestión documental, al igual que en otros campos útiles, se enfrenta por lo general a la disyuntiva de elegir entre una teoría formal, rigurosa y "respetable", que parece divorciada de las desordenadas realidades cotidianas, y una "teoría" menos formal que refleja, más o menos, la desordenada realidad que se encuentra en la práctica, pero que no se parece mucho a la teoría (Schon 1983, 42-45). El reto para los reflexivos, y especialmente para los académicos, es tratar de salvar la distancia: Elaborar teorías formales que sean más realistas y desarrollar puntos de vista realistas que se enmarquen en términos de principios generales.

¿Hasta qué punto es trivial la gestión de archivos?

Una vez que nos alejamos del absurdo de suponer que la teoría de la gestión de archivos debe tener las características de la teoría de una ciencia formal, la cuestión cambia de si existe una teoría a sobre qué estamos teorizando. Dicho más claramente: ¿Hasta qué punto es trivial o compleja la gestión documental?

Si consideráramos que la gestión documental consiste únicamente en numerar, archivar, buscar y volver a archivar trozos de papel, entonces nuestra visión de la misma -nuestra teoría- también sería bastante trivial. Por muy valiosa que sea esa actividad desde el punto de vista económico, es probable que la teoría no sea muy interesante.

Pero si consideramos la gestión documental como la gestión del acceso a los documentos de trabajo de una organización, entonces surgen algunos aspectos más complejos de los que mencionaré tres ejemplos:

1. Recuperación de información. Buscar la orden de compra nº 1234 es sencillo, basta con buscar su ubicación y transportarla físicamente. Pero, ¿cómo identificar qué registros existen que satisfagan alguna necesidad mal definida? ¿Qué pasa con todos los documentos relacionados con las actividades de una empresa que podrían interpretarse como prueba de discriminación? ¿Cómo encuentra una universidad los documentos que podrían demostrar sus contribuciones al bienestar de la industria local?

La recuperación de información puede incluir hasta tres funciones: (i) obtener físicamente una copia de un documento; (ii) localizar dónde se encuentra actualmente algún documento conocido; e (iii) identificar qué documentos, si los hay, se ajustan a alguna descripción. Las series de documentos están bien definidas, pero es probable que se necesiten más. Se entra en el amplio y complejo campo de la indización, la clasificación, los tesauros, los diccionarios de datos, etc.

2. El ciclo de vida de los registros. Cualquier tipo de servicio de gestión documental puede ser más eficaz y rentable si el gestor se implica en el ciclo de vida completo de los documentos de archivo. Pero la implicación en el ciclo completo conlleva la participación en una amplia variedad de cuestiones: diseño y gestión de formularios, factores humanos y flujo de trabajo, calendarios de conservación y valoración para la retención archivística, tecnología de la información y protección de registros vitales.

3. Política de información. ¿Qué (y quién) determina quién debe y quién no debe tener acceso a los documentos de archivo? Se trata de cuestiones jurídicas y éticas derivadas de la legislación sobre libertad de información y privacidad, secretos comerciales, etcétera. Estas cuestiones son complicadas, contradictorias y de gran importancia, sobre todo para la gestión de archivos en el sector público. Por ejemplo, ¿debe el público tener acceso a algunos o todos los expedientes personales de los funcionarios públicos o tienen prioridad los derechos a la intimidad de dichos funcionarios? ¿Cuándo y por qué motivos pueden mantenerse confidenciales los borradores de documentos de trabajo?

Estos tres ejemplos (recuperación de la información, diseño del ciclo de vida de los documentos de archivo y políticas de información) bastan para indicar que, si se considera que la gestión de documentos de archivo tiene que ver en general con el acceso a los documentos de trabajo de una organización, es difícil no ver la naturaleza del campo como práctica y conceptualmente complicada, como real o potencialmente rica en teorías de un tipo u otro.

La ciencia del avestruz: o ¿qué tiene de particular la gestión documental?

Otro problema de la teoría en la práctica profesional es el deseo de identificar una teoría o ciencia que sea exclusiva de esa ocupación. También esto es imprudente.

Las cuestiones y principios sobre quién debe tener acceso a los documentos de archivo son tanto una cuestión legal como de gestión documental. El concepto de ciclo de vida es común tanto a los archivos como a la gestión documental. Los esquemas de indexación y clasificación también conciernen a la biblioteconomía, la museología, la gestión de bases de datos y otros ámbitos. ¿Es importante? Sí, tiene una importancia positiva porque es beneficioso que otros grupos profesionales también tengan interés en abordar los mismos problemas o problemas relacionados. Lo que se necesita es comunicación y colaboración, no un aislamiento profesional autoimpuesto.

Yo no consideraría que facilitar el acceso a los archivos de una organización carezca de importancia o sea fácil. El prestigio y el respeto vienen de hacer bien una tarea difícil e importante, no de insistir en que uno no es archivero, ni bibliotecario, ni lo que sea. Definir el ámbito de la gestión de documentos de archivo implica también definir qué tipo de teoría sería pertinente. Cuantas más ideas puedan derivarse de otros campos, mejor será el servicio de gestión documental.

Pensemos en un científico que estudia un avestruz. Sin duda, el estudio de los avestruces requiere mucha teoría. Sin embargo, dudo que sea algo exclusivo de los avestruces. Más bien deberíamos esperar formas variantes o casos especiales de teorías también relevantes para otras aves y/u otros animales del mismo hábitat. Uno puede ser un científico del avestruz, pero desconfíe de quien insista en que existe una Ciencia del Avestruz que de algún modo está separada y es independiente de otras disciplinas. Puede que alguien tenga la cabeza en la arena.

Contextos teóricos de la teoría de la gestión documental.

Por "contexto teórico" entendemos un ámbito teórico más amplio en el que encaja la teoría de la gestión documental. Puede haber muchos contextos teóricos. Mencionaremos sólo tres.

1. Contexto funcional. La gestión documental está al servicio de una empresa u otra organización. Por tanto, la misión de un servicio de gestión documental debe estar relacionada con la misión de la organización en su conjunto y apoyarla. La función del programa de gestión documental debe articularse con las funciones de otras partes de la organización: las funciones, necesidades y actividades de los empleados que necesitan acceder a los documentos de archivo; las funciones de otros programas relacionados con la información, como los sistemas de gestión de la información, el procesamiento de datos, la biblioteca y los archivos. En otras palabras, es probable que la teoría de la gestión documental resulte estéril o incompleta si no se relaciona con una visión de la organización en su conjunto. Se trata de algo más que curiosidad académica. Si vamos a afirmar que el papel de la gestión documental es importante, entonces necesitamos tener puntos de vista sobre cómo un buen programa de gestión documental contribuye y apoya la eficacia de la organización.

2. Contexto profesional. La gestión documental puede considerarse un miembro de una familia de sistemas de información basados en la recuperación. No es lo mismo un italiano que un británico, pero ambos son europeos y comparten algunas cosas en común como europeos. Los archivos, las bibliotecas, los programas de gestión documental y las bases de datos corporativas no son lo mismo, pero todos ellos son servicios de información basados en la recuperación y, por tanto, tienen algunas características en común, así como diferencias que los hacen singularmente distintos (Buckland 1982, 1991).

Considerar la gestión documental como miembro de una familia de sistemas de información basados en la recuperación no es algo nuevo. Este punto de vista se adoptó en el movimiento de la "Documentación" a principios de este siglo, especialmente en los escritos de Paul Otlet (1868-1944) (Rayward 1976, 1986). Lo que hoy llamamos gestión de archivos, Otlet lo denominaba "documentación administrativa" y lo consideraba una especialidad importante de la administración. También incluía en la documentación administrativa lo que hoy llamamos Sistemas de Información de Gestión. Otlet escribió varios artículos sobre el tema y sus ideas se aplicaron de forma limitada en Europa (Otlet 1923, 1930, 1934, 350-55; Rayward 1976, 160, 184).

Otlet consideraba que los archivos, la bibliografía, las bibliotecas, los museos y la gestión documental formaban parte del amplio campo de la "Documentación" o "Documentación General" o, como diríamos hoy en día, de la gestión de los recursos de información. En 1923 escribió, un tanto prematuramente, que la documentación administrativa era una rama de la "documentación general", que nacía de la convergencia y luego la fusión de la bibliografía, la administración de archivos e incluso la museología (Otlet 1923, 13).

Otlet fue una figura importante en su época, pero en la actualidad es poco conocido. Sus escritos sólo empiezan a aparecer ahora en inglés (Otlet 1990). Sin embargo, la idea de que la gestión de documentos de archivo (y otros tipos de servicios de información) puede resultar beneficiosa desde el punto de vista teórico y práctico como parte de una familia de profesiones relacionadas con la información y de adoptar un enfoque comparativo ha recibido atención recientemente en Norteamérica (Seibell 1987; Pemberton & Prentice 1990; Buckland, 1991).

3. Contexto intelectual. Otro tipo de contexto es el que podría denominarse "contexto intelectual". ¿De dónde proceden las ideas sobre gestión de archivos y adónde han ido a parar? Dos ejemplos pueden ilustrar este punto. Una de las fuentes de las ideas sobre gestión documental es la teoría archivística. Posner (1940) se burlaba de los archiveros por su afición a buscar sus raíces en la antigua Asiria. Tal vez esa antigua actividad archivística se describa con más precisión como gestión de documentos de archivo antiguos (Walker 1989). El profesor Duranti ha resumido recientemente ese aspecto de la ascendencia intelectual de los gestores de documentos (Duranti 1989).

En la otra dirección, es menos conocido que las ideas actuales de moda en informática sobre el hipertexto y los hipermedios tienen parte de sus raíces en la gestión de documentos de archivo. Una inspiración importante en ese campo ha sido el ensayo visionario "As we may think" de Vannevar Bush (1945). Esta fantasía, redactada en 1939, se basaba en su experiencia con un proyecto financiado por Eastman Kodak y National Cash Register para desarrollar un método más rápido de recuperación de registros comerciales microfilmados utilizando una máquina conocida como "selector rápido". Los selectores rápidos eran básicamente una versión preinformática de la recuperación asistida por ordenador (CAR) en la que las entradas del índice se registraban como patrones en el propio microfilm junto a las imágenes de los documentos. Las entradas del índice se buscaban utilizando una célula fotoeléctrica para detectar coincidencias entre el patrón de índice buscado y los patrones de índice del microfilm. La tecnología del selector rápido fue desarrollada inicialmente a finales de la década de 1920 por Zeiss Ikon en Alemania y más tarde, de los años 30 a los 60, en EE.UU., normalmente para ayudar a localizar y recuperar registros corporativos microfilmados o informes técnicos (Goldberg, 1992; Buckland, 1992; Alexander & Rose, 1964; Stevens, 1968).

Comparación

No se llega muy lejos intentando definir y describir las cosas en sus propios términos. La comparación es la actividad intelectual más básica. Comparar la naturaleza de la gestión documental con otras cosas es una condición necesaria para progresar en el desarrollo de una visión -una teoría- de la gestión documental. Para comprender mejor la gestión de documentos de archivo debemos prestar más atención a la comparación de la gestión de documentos de archivo con otras actividades afines. Sólo mediante un conocimiento profundo de las semejanzas y desemejanzas podemos esperar desarrollar una comprensión profunda de la naturaleza -una teoría- de la gestión de archivos.

Resumen

  1. Una teoría es una visión de la naturaleza de algo.
  2. La teoría no debe ser más formal de lo que permita la naturaleza de los fenómenos que debe describir. Las teorías excesivamente formalizadas dejan de describir la realidad de forma útil.
  3. Cualquier visión de la gestión documental como algo más que el archivo y la búsqueda de documentos proporcionará una base para una teoría no trivial.
  4. Es probable que pocas partes de la teoría de la gestión de archivos sean exclusivas de la gestión de archivos, aunque sí lo serán su aplicación detallada y su combinación global. La teoría compartida es ventajosa porque significa que otros comparten la motivación de buscar una mejor comprensión.
  5. La gestión documental puede considerarse en relación con diferentes contextos, por ejemplo, funcional, profesional, intelectual. Cada uno de estos contextos más amplios genera un cuerpo teórico o una oportunidad para desarrollarlo.

Referencias

Alexander, S. N. and F. C. Rose. 1964. The Current Status of Graphic Storage Techniques: Their Potential Application to Library Mechanization. In: Libraries and Automation. Proceeding of the Conference on Libraries and Automation, Warrenton, 1963, ed. by B. E. Markuson. (Washington, DC: Library of Congress, 1964), 111-140.

Aristotle. 1955. The Ethics of Aristotle: The Nichomachean Ethics Translated. (Harmondsworth, UK: Penguin).

Boyce, Bert R. and Donald H. Kraft. 1985. Principles and Theories in Information Science. Annual Review of Information Science and Technology 20:153-78.

Buckland, Michael. 1982. Records Management in its Intellectual Context: Experience at Berkeley. ARMA Quarterly 16:26-28, 30.

Buckland, Michael. 1991. Information and Information Systems. (New York: Praeger).

Buckland, Michael. 1992. Emanuel Goldberg, Electronic Document Retrieval, and Vannevar Bush's Memex. Journal of the American Society for Information Science 43 (May 1992): 284-294.

Bush, Vannevar. 1945. As We may Think. Atlantic Monthly 176:101-106.

Duranti, L. 1989. The Odyssey of Records Management. ARMA Quarterly 23, no. 3 (July 1989): 3-11 and no. 4 (Oct. 1989):3-11.

Goldberg, Emanuel. 1932, 1992. The Retrieval Problem in Photography (1932). Transl. and notes by M. Buckland. Journal of the American Society for Information Science 43 (May 1992): 295-298.

Otlet, Paul. 1923. Manuel de documentation administrative. (IIB publ. 137). (Brussels: Institut International de Bibliographie).

Otlet, Paul. 1930. Sur les possibilités pour les entités administratives d'avoir à tout moment leur situation présentée documentairement. (IIB Publ. 162). (Brussels: Institut International de Bibliographie).

Otlet, Paul. 1934. Traité de documentation. (Brussels: Editiones Mundaneum, 1934. Reprinted Liège, Belgium: Centre de Lecture Publique de la Communauté Française, 1989).

Otlet, Paul. 1990. International Organization and Dissemination of Knowledge: Selected Essays. Transl. and ed. by W. B. Rayward. (FID 684). (Amsterdam: Elsevier).

Oxford English Dictionary. 1989. 2nd ed. (Oxford: Clarendon Press), v. 7, p. 902.

Pemberton, J. Michael and Ann Prentice, eds. 1990. Information Science: The Interdisciplinary Context. (New York: Neal-Schuman).

Posner, E. 1940. Some Aspects of Archival Development since the French Revolution. American Archivist 3 (July 1940):159-172. Reprinted in M. F. Daniels and T. Walch, eds. 1984. A Modern Archives Reader. (Washington, DC: National Archives and Records Service), 3-14.

Rayward,W. Boyd. 1976. The Universe of Information: The Work of Paul Otlet for Documentation and International Organization. (FID 520). (Moscow: VINITI).

Rayward, W. Boyd. 1986. Otlet, Paul-Marie-Ghislain. In: ALA World Encyclopedia of Library and Information Sciences. 2nd ed. (Chicago: American Library Association), 626-28.

Schon, Donald A. 1983. The Reflective Practitioner: How Professionals Think in Action. (New York: Basic Books), 42-45.

Seibell, C. S. 1987. Records Management in its Intellectual Context. Records Management Quarterly 21:3-14, 42 & 49.

Stevens, G. W. W. 1968. Microphotography: Photography and Photofabrication at Extreme Resolution. 2nd ed. (New York: Wiley).

Walker, B. 1989. Records Managers and Archivists: A Survey of Roles. Records Management Quarterly 23 (1989):18-20, 45 & 49.

Original article: people.ischool.berkeley.edu/~buckland/rmtheory.html

By Jose Melgarejo

July 27, 2023

Read post
logo
¿Qué es la ciencia computacional? ¿Qué es la ciencia computacional? CSR

La ciencia computacional es hacer ciencia a través de la computación. Se ha convertido en el tercer modo de investigación científica, complementario de la teoría y el experimento. Gracias a los enormes avances en potencia de cálculo, ahora es posible simular computacionalmente procesos cada vez más complicados y realistas.

El diseño, la creación de prototipos, la optimización y el control de procesos tecnológicos dependen de una comprensión fundamental de los fenómenos implicados, sus interacciones y su sensibilidad a los parámetros. Estos fenómenos pueden estudiarse muy eficazmente mediante simulaciones por ordenador basadas en modelos matemáticos que expresan principios físicos.

  • Modelización: El primer paso es la "matematización" del proceso, es decir, el desarrollo de un modelo matemático del proceso físico. Suele ser, con mucho, la más difícil.
  • Análisis: A continuación, puede utilizarse todo el arsenal de herramientas matemáticas para analizar y comprender las propiedades básicas del modelo matemático e intentar predecir su comportamiento. Aquí es donde cobran importancia las cuestiones teóricas (existencia, unicidad, estabilidad de las soluciones), que a menudo generan problemas desafiantes para la investigación matemática teórica.
  • A continuación entra en juego la Computación Científica, que desarrolla métodos numéricos apropiados y eficaces para el problema matemático.
  • Programación: Los algoritmos se implementan en un lenguaje informático de alto nivel (Fortran, C, C++).
  • Verificación: El código informático se prueba exhaustivamente en problemas/procesos con solución/comportamiento conocidos. Se corrigen los errores y el código se prueba una y otra vez.
  • Optimización: El código informático se optimiza para aumentar su robustez, estabilidad y eficacia.
  • Paralelización: Los problemas realistas suelen ser muy exigentes desde el punto de vista computacional, por lo que es necesario paralelizar el código para que se ejecute simultáneamente en clusters de multiprocesadores y/o en muchos ordenadores conectados en red.
  • Validación: El último paso crucial es la validación del modelo mediante la simulación de un proceso y la comparación de los resultados de las simulaciones numéricas con las mediciones experimentales. Esto puede requerir varias iteraciones de todos los pasos anteriores.

Original article: https://web.math.utk.edu/~vasili/va/descr/

By Abner Roa

June 12, 2023

Read post
logo
Mecanismos de acción y resistencia en fármacos antipalúdicos Mecanismos de acción y resistencia en fármacos antipalúdicos CSR

La quimioterapia es el principal medio de tratamiento de las infecciones por protozoos. El éxito de la quimioterapia depende en gran medida de la capacidad de aprovechar las diferencias metabólicas entre el patógeno y el huésped. Un problema al que se enfrenta la quimioterapia es la capacidad del patógeno para mutar y volverse resistente a los fármacos. A continuación se exponen ejemplos concretos de mecanismos de acción y resistencia a los fármacos.

Índice:

  • Acción del fármaco
  • La cloroquina y la vacuola alimentaria
  • Antifolatos
  • Fármacos que implican mecanismos redox
  • Resistencia a los fármacos
  • Cloroquina
  • Otros enlaces

Acción de los fármacos

Los fármacos actúan interfiriendo específicamente en procesos celulares o bioquímicos, a menudo denominados "dianas". El ejemplo clásico de diana farmacológica es una enzima inhibida por el fármaco. Los fármacos eficaces mostrarán una toxicidad selectiva para el patógeno en comparación con el huésped. Muchos factores contribuyen a esta toxicidad selectiva (recuadro) y estos factores no se excluyen mutuamente. El diseño racional de fármacos trata de explotar estos diversos factores para desarrollar fármacos que sean altamente tóxicos para el patógeno y, al mismo tiempo, presenten una toxicidad mínima para el huésped.

Mecanismos de Acción

La cloroquina y la vacuola alimentaria

La vacuola alimentaria es un orgánulo similar al lisosoma en el que se produce la descomposición de la hemoglobina y la desintoxicación del hemo (véase un análisis más detallado de la vacuola alimentaria). La cloroquina se concentra hasta 1000 veces en la vacuola alimentaria del parásito. Los posibles mecanismos de esta acumulación selectiva de cloroquina en la vacuola alimentaria son: 1) protonación y atrapamiento iónico de la cloroquina debido al bajo pH de la vacuola alimentaria; 2) captación activa de la cloroquina por uno o varios transportadores del parásito; y/o 3) unión de la cloroquina a un receptor específico en la vacuola alimentaria.

La contribución exacta de estos tres mecanismos postulados no está clara, pero en general se acepta que la cloroquina ejerce su efecto tóxico interfiriendo en la conversión del hemo libre en hemozoína. Se liberan grandes cantidades de hemo como resultado de la digestión de la hemoglobina en la vacuola alimentaria. El hemo libre puede lisar las membranas, conducir a la generación de intermediarios reactivos del oxígeno e inhibir muchos otros procesos, por lo que es bastante tóxico. El hemo se desintoxica en la vacuola alimentaria mediante un proceso de biocristalización en el que el hemo se secuestra en grandes cristales insolubles llamados hemozoína o pigmento de la malaria. [Ver descripción más detallada de la formación de hemozoína]. Se desconoce el mecanismo exacto por el que la cloroquina inhibe la formación de hemozoína, pero la cloroquina puede unirse al hemo y esta unión puede impedir que el hemo se incorpore al cristal de hemozoína. Por lo tanto, la muerte del parásito es el resultado de la acumulación de desechos metabólicos (es decir, hemo) asociados a la digestión de la hemoglobina.

Mecanismos de Acción

La cloroquina (CQ) se acumula en la vacuola alimentaria del parásito. Esta acumulación puede implicar el atrapamiento de iones tras la protonación, el transporte específico y/o la unión a un receptor (por ejemplo, el hemo). La principal acción de la cloroquina es inhibir la formación de hemozoína (Hz) a partir del hemo liberado por la digestión de la hemoglobina (Hb). El hemo libre lisaría entonces las membranas y provocaría la muerte del parásito. La resistencia a la cloroquina se debe a una menor acumulación de cloroquina en la vacuola alimentaria. Dos transportadores diferentes (CRT y MDR1) han sido implicados en la resistencia. Se desconocen las funciones de estos transportadores y su papel exacto en la resistencia a la cloroquina.

Otros antipalúdicos que contienen quinolina, como la mefloquina y la quinina, también parecen afectar a la vacuola alimentaria. Sin embargo, no está claro si estos fármacos se unen al hemo o afectan a la formación de hemozoína. Además, estos fármacos son bases más débiles que la coroquina y es posible que no presenten el mismo grado de captura de iones dentro de la vacuola alimentaria.

La vacuola alimentaria ofrece muchas dianas farmacológicas potenciales. Además de la inhibición de la formación de hemozoína comentada anteriormente, también se están investigando inhibidores específicos de las proteasas implicadas en la digestión de la hemoglobina como posibles antimaláricos.[Ver discusión más detallada sobre las proteasas de la vacuola alimentaria]. Las funciones especializadas de digestión de la hemoglobina y formación de hemozoína son exclusivas del parásito y no se encuentran en el hospedador. Además, ambas funciones (generación de aminoácidos a partir de la hemoglobina y desintoxicación del hemo) son muy importantes para el parásito.

Antifolatos

El metabolismo del folato es el objetivo de varios antipalúdicos, así como de fármacos utilizados contra otros patógenos. Los folatos reducidos sirven como cofactores en muchas reacciones de transferencia de un carbono implicadas en la biosíntesis de aminoácidos y nucleótidos (véase más sobre vitaminas y cofactores). Debido a su elevada tasa de replicación, el parásito de la malaria tiene una gran demanda de nucleótidos como precursores para la síntesis de ADN (véase más sobre nucleótidos y ácidos nucleicos), por lo que es especialmente sensible a los antifolatos. Las dos dianas principales del metabolismo antifolato son la biosíntesis de novo de folatos y la dihidrofolato reductasa (DHFR).

El parásito de la malaria sintetiza folatos de novo, mientras que el huésped humano debe obtener folatos preformados y no puede sintetizarlos. La incapacidad del parásito para utilizar folatos exógenos convierte la biosíntesis del folato en una buena diana farmacológica. El folato se sintetiza a partir de 3 componentes básicos, GTP, ácido p-aminobenzoico (pABA) y glutamato, en una vía en la que intervienen 5 enzimas. Una de estas enzimas, la dihidropteroato sintasa (DHPS), es inhibida por los medicamentos a base de sulfamidas. La sulfadoxina y la dapsona son dos antipalúdicos comunes que actúan sobre la DHPS. Las sulfamidas son análogos estructurales del pABA y la DHPS los convierte en aductos no metabolizables. Esto conduce a un agotamiento de la reserva de folato y por lo tanto reduce la cantidad de timidilato disponible para la síntesis de ADN.

Mecanismos de Acción

Esquema simplificado del metabolismo del folato. El parásito de la malaria sintetiza folatos de novo, pero no puede utilizar folatos preformados. Los folatos participan como cofactores en muchos procesos biosintéticos. Cabe destacar la síntesis de timidilato (dTMP), necesario para la síntesis del ADN. Las dos dianas principales de los fármacos antipalúdicos que actúan sobre el metabolismo de los folatos se indican con flechas en recuadro.

La DHFR es una enzima ubicua que participa en el reciclaje de los folatos reduciendo el dihidrofolato a tetrahidrofolato. A continuación, el tetrahidrofolato se oxida de nuevo a dihidrofolato al participar en reacciones biosintéticas (por ejemplo, timidilato sintasa). La inhibición de la DHFR impedirá la formación de timidilato y provocará la detención de la síntesis de ADN y la posterior muerte del parásito. La pirimetamina y el proguanil son los dos inhibidores de la DHFR más utilizados como antipalúdicos. Estos fármacos inhiben la DHFR del parásito en mayor medida que la enzima del huésped, por lo que muestran una toxicidad selectiva hacia el parásito.

En la mayoría de los casos, los inhibidores de la DHPS y la DHFR se utilizan en combinación (Tabla) para obtener un efecto sinérgico y frenar el desarrollo de farmacorresistencia. Las mutaciones puntuales específicas de estas enzimas provocan una menor afinidad por los fármacos. La resistencia tiende a desarrollarse rápidamente en presencia de presión farmacológica en situaciones en las que una sola mutación puede provocar resistencia a los fármacos. El uso de combinaciones de fármacos ralentizará el desarrollo de resistencia, ya que deben producirse dos mutaciones independientes para que se desarrolle resistencia contra ambos fármacos. Fansidar, una combinación de sulfadoxina y pirimetamina, se utiliza ampliamente para el tratamiento de la malaria falciparum no complicada. La trimetoprima, similar a la pirimetamina, suele utilizarse en combinación con otras sulfamidas para el tratamiento de coccidios (Toxoplasma, Cyclospora e Isospora) y Pneumocystis.

Mecanismos de AcciónFármacos que Implican Mecanismos Redox

Se cree que varios fármacos antiprotozoarios actúan a través del estrés oxidativo (Tabla). Los procesos metabólicos producen intermediarios reactivos del oxígeno (ROI) que pueden dañar componentes celulares como lípidos, proteínas y ácidos nucleicos (véase la revisión sobre estrés oxidativo). La alta actividad metabólica de la mayoría de los patógenos protozoarios dará lugar a la producción de niveles aún más altos de ROI. Este es el caso del parásito de la malaria, que produce ROI como consecuencia de la digestión de la hemoglobina y la liberación de hemo libre. [Véase una descripción más detallada del hemo y la ROI].

Todas las células tienen mecanismos mediante los cuales se puede desintoxicar la ROI (p. ej., metabolismo redox). Los fármacos que aumentan específicamente los niveles de estrés oxidativo en el parásito pueden sobrecargar estos mecanismos de defensa de la ROI y provocar la muerte del parásito. Los niveles de estrés oxidativo pueden ser aumentados por fármacos que son oxidantes directos, así como por fármacos que participaron en el ciclo de oxidación-reducción, a veces llamado ciclo redox fútil.

Mecanismos de Acción

Muchos de los fármacos que participan en las reacciones redox necesitan ser activados antes de ser eficaces contra su(s) diana(s). Por ejemplo, el metronidazol y otros nitroimidazoles son fármacos de amplio espectro que afectan a una gran variedad de bacterias anerobias y protozoos. Estos fármacos se activan mediante la reducción del grupo nitro a un radical aniónico. El radical aniónico es muy reactivo y forma adyuvantes con las proteínas y el ADN, lo que provoca una pérdida de función. En particular, las reacciones con el ADN provocan la rotura de la cadena y la inhibición de la replicación, lo que conduce a la muerte celular. La reducción de los nitroimidazoles requiere fuertes condiciones reductoras y los organismos anaerobios tienen más potencial reductor que los aerobios. Esto explica la selectividad de estos compuestos para los organismos anaerobios. En otras palabras, los fármacos son activados preferentemente por los patógenos.
En el caso del metronidazol, la ferredoxina reducida parece ser el principal donante de electrones responsable de su reducción (Figura). Existe una buena correlación entre la presencia de la piruvato-ferredoxina oxidorreductasa (PFOR) y la sensibilidad al metronidazol. Los tres protozoos afectados por el metronidazol (Tabla) carecen de mitocondrias y tienen una PFOR similar a la que se encuentra en muchas bacterias anaerobias. Los organismos aerobios con mitocondrias utilizan la piruvato deshidrogenasa en lugar del PFOR para la producción de acetil-coenzima A.Mecanismos de Acción

Acciones de los nitroimidazoles. Los nitroimidazoles (R-NO2) son activados por el parásito mediante una reducción a un radical aniónico. Este radical aniónico altamente reactivo daña el ADN y las proteínas, provocando la muerte del parásito. El metronidazol parece ser reducido específicamente por la ferredoxina en Giaridia, Entamoeba y Trichomonas. Los organismos aerobios utilizarían otros donantes de electrones para la reducción de los nitroimidazoles y también existiría la posibilidad de establecer ciclos fútiles que llevarían a la generación de ROI en los que el oxígeno es el aceptor final de electrones. Normalmente las NAD oxidorreductasas llevan a cabo ciclos redox siendo el agua el producto final.
Los nitroimidazoles (p. ej., benznidizol) y los compuestos nitrofuránicos relacionados (p. ej., nifurtimox) también son eficaces contra Trypanosoma cruzi. Se desconocen los donantes de electrones responsables de la reducción inicial de estos fármacos y no está clara la base de la especificidad para el parásito. Ambos fármacos son algo tóxicos y no presentan buenos índices terapéuticos. Se cree que el mecanismo de acción del nifurtimox implica ciclos redox inútiles tras su reducción, mientras que se especula que el benznidizol inhibe reductasas específicas y, por tanto, disminuye la capacidad del parásito para eliminar ROI.Mecanismos de AcciónFarmacorresistencia
La aparición de farmacorresistencia limita gravemente el arsenal de fármacos disponibles contra los patógenos protozoarios. Los parásitos han desarrollado numerosas formas de superar la toxicidad de los fármacos (recuadro). Muy a menudo, la farmacorresistencia implica mutaciones en la diana del fármaco, de modo que éste no se une o inhibe tan bien la diana. La farmacorresistencia puede desarrollarse rápidamente en situaciones en las que una única mutación puntual puede conferir resistencia. Otro mecanismo de resistencia implica la expresión de niveles más altos de la diana. Esto puede lograrse mediante un aumento de la transcripción y la traducción o la amplificación del gen. El resultado es la necesidad de niveles más altos de fármacos para lograr el mismo nivel de inhibición. La disminución de la acumulación del fármaco o su metabolización en productos no tóxicos hará que llegue menos fármaco a la diana y también puede contribuir a la farmacorresistencia. La farmacorresistencia también puede implicar la acumulación de mutaciones en la misma diana o en dianas diferentes que tendrán efectos aditivos o sinérgicos. Los parásitos con mutaciones o polimorfismos genéticos que confieren una disminución de la sensibilidad a los fármacos serán seleccionados bajo presión farmacológica.

Mecanismos de AcciónEn algunos casos se han asociado mutaciones específicas con la farmacorresistencia (Tabla). La resistencia al Fansidar (SP) se correlaciona con mutaciones específicas en las enzimas diana de la sulfadoxoína y la pirimetamina (dihidrofólico sintetasa y dihidrofolato reductasa, respectivamente). La resistencia a la cloroquina (de la que se hablará más adelante con más detalle) se ha correlacionado con mutaciones en un transportador que se encuentra en la membrana de la vacuola alimentaria (transportador de resistencia a la cloroquina, CRT). Se ha implicado que otro transportador de la vacuola alimentaria, el gen 1 de resistencia a múltiples fármacos (MDR1), desempeña un papel auxiliar en la resistencia. La base de la resistencia a la mefloquina y la quinina no está clara, pero también se ha implicado al gen mdr1.

Cloroquina

La resistencia a la cloroquina se asocia a una disminución de la cantidad de cloroquina que se acumula en la vacuola alimentaria, el lugar de acción de la cloroquina (véase más arriba). El mecanismo de esta menor acumulación es controvertido. Algunos estudios han demostrado que la disminución de la acumulación del fármaco se debe a un aumento de su eflujo. Mientras que otros estudios sugieren que la disminución de los niveles de acumulación de cloroquina es más importante. La observación de que el verapamilo y otros fármacos relacionados pueden revertir el fenotipo resistente a la cloroquina ha llevado a especular que un transportador dependiente de ATP desempeña un papel en el eflujo del fármaco y la resistencia a la cloroquina, similar a la resistencia a múltiples fármacos (MDR) en el cáncer. Se ha identificado un transportador similar a la MDR, designado PfMDR1, en la membrana de la vacuola alimentaria. Sin embargo, no se ha podido demostrar ninguna correlación definitiva entre PfMDR1 y la resistencia a la cloroquina. No obstante, no puede descartarse un papel auxiliar de PfMDR1 en la resistencia a la cloroquina.

Un cruce genético y estudios cartográficos entre un clon resistente a la cloroquina y un clon sensible a la cloroquina dieron como resultado la identificación de una región de 36 kb en el cromosoma 7 asociada a la resistencia a la cloroquina. Uno de los 10 genes de esta región de 36 kb codifica una proteína con 10 dominios transmembrana y se asemeja a una proteína transportadora similar a los canales de cloruro. El gen se ha designado como pfcrt y la proteína se localiza en la membrana de la vacuola alimentaria. Varias mutaciones en el gen pfcrt muestran correlaciones con el fenotipo de resistencia a la cloroquina y una mutación, una sustitución de una treonina (T) por una lisina (K) en el residuo 76 (K76T) muestra una correlación perfecta con la resistencia a la cloroquina. Presumiblemente, estas mutaciones afectan a la acumulación de cloroquina en la vacuola alimentaria, pero se desconoce el mecanismo exacto de la resistencia a la cloroquina. Además, la observación de que la resistencia a la cloroquina ha surgido relativamente pocas veces y se ha extendido posteriormente ha llevado a especular sobre la participación de múltiples genes en el desarrollo de la resistencia (véase más discusión).

Lecturas adicionales

Foley M y Tilley L (1998) Quinoline antimalarials. Mecanismos de acción y resistencia y perspectivas de nuevos agentes. Pharmacology & Therapeutics 79:55

Hyde JE (2007) Drug-resistant malaria -- an insight. FEBS Journal 274, 4688-4698.

Ouellette M (2001) Biochemical and molecular mechanisms of drug resistance in parasites. Trop Med Int Health 6:874.

Rosenthal PJ y Goldsmith RS (2001) Antiprotozoal drugs. En Basic and Clinical Pharmacology, 8ª edición. McGraw-Hill Companies Inc. (Edición en línea disponible a través de Stat!Ref Books en Tulane Medical Library)

Samuelson J (1999) Why metronidazole is active against both bacteria and parasites. Antimicrob Agents Chemother. 43:1533.

Wellems TE y Plowe CV (2001) Paludismo resistente a la cloroquina. J Inf Dis 184:770.

Original Article: http://www2.tulane.edu/~wiser/protozoology/notes/drugs.html

By Jose Melgarejo

April 27, 2023

Read post
logo
La Impresora de Tablas del Observatorio Naval 1945 La Impresora de Tablas del Observatorio Naval 1945 CSR

La primera composición tipográfica programada

La Impresora de Tablas

La máquina de impresión de tablas IBM Electromática, Observatorio Naval de Estados Unidos. Foto: Alrededor de 1946.

Wallace Eckert, catedrático de Astronomía de la Universidad de Columbia, pasó los años de la guerra en el Observatorio Naval de Estados Unidos, donde fue encargado de la Oficina del Almanaque Náutico con el fin de "computarizarla" para la producción rápida y masiva de almanaques precisos para la navegación aérea y marítima de las fuerzas y navíos aliados. Para ello, aportó sus conocimientos de mecánica celeste y su propio método pionero de cálculo científico mediante tarjetas perforadas, una combinación casi única¹. Según sus propias palabras:

"Desde hace muchos años, el Observatorio Naval publica un almanaque náutico y desde hace unos cinco años un almanaque aéreo. El propósito de cualquiera de estas publicaciones es sólo dar esta información -cuál es la longitud y la latitud de cualquier objeto celeste en cualquier momento. Una de las razones por las que varían es que en el pasado el almanaque náutico se diseñó para la tierra y el almanaque aéreo se diseñó para el aire. Tienen tiempo de sobra para utilizar el mapa náutico, mientras que para la navegación aérea, un minuto te llevará muy lejos... Hay dos páginas al día de esta información, es decir, unas 730 páginas [1,5 millones de cifras] al año... Hay que imprimirlas y no puede haber ningún error. Si una de estas cifras es errónea, el navegante... puede perderse a sí mismo y a su avión". [84] (¡o a sí misma!)

La Impresora de Tablas

WASP-Mujeres piloto de la Fuerza Aérea, durante la Segunda Guerra Mundial.

Eckert decidió que, para conseguir belleza (claridad, compacidad y elegancia) y una precisión perfecta (eliminando los pasos de copia, composición manual, revisión y corrección), era necesaria una forma de composición "por ordenador", en la que las tablas de números calculadas por máquinas de computación se introducían directamente en una máquina de componer capaz de crear originales con calidad de publicación. Como solución provisional al principio de la guerra, los dispositivos de impresión de tarjetas perforadas existentes (principalmente la Máquina de Contabilidad IBM 405) se modificaron para producir almanaques aéreos precisos y legibles para 1942-45 mediante un intrincado procedimiento de impresión de dos pasadas, utilizando barras y cintas tipográficas especiales. Mientras tanto, una máquina de escribir de composición por tarjetas especificada por Eckert en 1941 (antes de que EE.UU. entrara en guerra) y construida por IBM, era capaz de espaciado proporcional, negrita, superíndices y subíndices, letras, números, puntuación y símbolos especiales, con diseño y otros detalles programados por una combinación de tarjeta maestra y plugboard; fue entregada en 1945 y produjo su primer Almanaque Aéreo en 1946 [77]. Se llamaba “Máquina Impresora de Tablas Electromagnética”, y consistía en una Máquina de Escribir Electromagnética de Espaciado Proporcional IBM² modificada conectada a un teclado IBM Tipo 016 modificado³. Según Hollander (referencia más adelante), sólo se fabricaron dos: una para Eckert y otra para la sede central de IBM. Sin embargo, según Herb Grosch (referencia más abajo), Eckert dijo en años posteriores que se habían fabricado unidades adicionales para otros lugares de impresión de almanaques (Grosch supo más tarde que una copia británica se instaló en la Oficina de Su Majestad para Almanaques Náuticos en el castillo Herstmonceux en febrero de 1953, y calcula que podría haber habido media docena más).

Desde enero de 2011, tenemos unas fotos excelentes de la perforadora de tarjetas IBM 031, gracias a Paul Varnum del Departamento de Transporte de Iowa, que tiene un parecido tan asombroso con la perforadora mostrada arriba que estaría tentado de decir que la impresora de tablas usaba una 031 y no una 016.

Aunque ya existían máquinas de componer, se accionaban mediante teclado, lo que suponía una fuente de errores. Existían máquinas de linotipia accionadas por cinta de papel perforada, pero la perforadora de cinta también se accionaba mediante teclado, por lo que la probabilidad de error no se reducía. Anteriormente se habían publicado tablas matemáticas en forma de reproducciones fotográficas de impresiones de máquinas de calcular estándar no modificadas, pero eran voluminosas y poco claras. Los números calculados por las máquinas de calcular y perforados en tarjetas directamente en un aparato de impresión de alta calidad resolvían todos estos problemas. Las máquinas utilizadas para imprimir el Almanaque Aéreo de 1942-46: la 405 modificada de Eckert y, posteriormente, la impresora de tablas (fueron casi con toda seguridad las primeras máquinas tipográficas accionadas por ordenador4) una idea concebida por primera vez por Babbage y realizada por Eckert más de 100 años después) debido a las exigencias de la guerra, donde los errores o los números ilegibles podían provocar la pérdida de aviones o la muerte de tripulaciones. El ejército, la marina y los pilotos comerciales imprimieron y utilizaron millones de almanaques aéreos de Eckert sin que nadie se quejara de su legibilidad o exactitud [84].

  1. L.J. Comrie era su homólogo en Inglaterra.
  2. Los modelos anteriores de Electromatic también se utilizaron en COLOSSUS y ASCC.
  3. Herb Grosch explica: "La tarjeta maestra iba en el bastidor de vaivén [del 016] [precursor del tambor de programa del 026], con una barra de salto enganchada a la parte delantera del carro; una muesca decía salto, una muesca más profunda decía copia. También podría haber sido posible poner datos repetitivos en la tarjeta maestra".
  4. La palabra "ordenador" se utiliza en el sentido general de máquina informática. La palabra "máquina de escribir" se utiliza en el sentido de dispositivo capaz de producir originales offset listos para la impresión con calidad de publicación.

Juego de caracteres de la impresora de tablas

La Impresora de Tablas

(De la referencia 4; haga clic en la imagen para ampliarla).

En la imagen se muestra el repertorio completo de caracteres de la impresora de tablas. Como puede verse, sólo incluye lo necesario para imprimir cada página del almanaque; los encabezamientos alfabéticos y las etiquetas se pre imprimían en el papel o se eliminaban posteriormente (las máquinas de escribir con bolas de tipos intercambiables no aparecerían hasta la década de 1960). Así pues, la impresora de tablas no era una máquina de escribir de uso general, pero sí era una máquina de escribir. En palabras de Eckert: "Hay 88 caracteres que, tras la reducción fotográfica, dan cifras claras de 8 puntos, cifras en negrita de 8 puntos, cifras de 8 y 6 puntos en la media línea (sin mover la platina), cifras de 6 puntos en la línea, varios tipos de decimales, signos más y menos, etc., números romanos y símbolos especiales para el Almanaque Aéreo" (Referencia 4 más abajo). El escape permite un espaciado horizontal en unidades de 1/32 de pulgada y un espaciado vertical de 1/12 de pulgada.

La muestra elegida por Hollander (referencia más abajo) para ilustrar la extrema flexibilidad de la impresora de tablas, procedente de la reimpresión por Paul Herget de las Kleine Planeten de emergencia de 1947 producidas en el WSCL (Laboratorio Watson) de Columbia a finales de 1946 (Grosch, página 81). Del artículo de Hollander: "Las Efemérides de Planetas Menores... son una obra maestra de la mecanografía. Ilustran la mayor parte de las capacidades de la máquina de escribir en una sola página. La única impresión que no se hizo con la máquina de tarjetas fueron los nombres de los planetas. Fueron mecanografiados a mano en una máquina de escribir IBM de espaciado proporcional". HAGA CLIC EN LA IMAGEN para ampliarla y ver tipos de 8 y 6 puntos, impresión en media línea, diversos símbolos, etc. Para más muestras, véanse los almanaques aeronáuticos y náuticos de la Segunda Guerra Mundial.

La Impresora de Tablas

Referencias:

  1. United States Navy Nautical Almanac Office, The American Air Almanac, US Government Printing Office, Washington DC (ediciones de 1940 a 1946).
  2. Eckert, W.J., "The Construction of the Air Almanac", 68th Meeting of the American Astronomical Society, New Haven CT, 12-14 de junio de 1942.
  3. Eckert, W.J., "Air Almanacs", Sky and Telescope, Vol.4, No.37 (Oct 1944).
  4. W.J.E. (Wallace J. Eckert) y Ralph F. Haupt, "The Printing of Mathematical Tables", Mathematical Tables and Other Aids to Computation, Vol.2, No.17 (Jan 1947), pp.197-202.
  5. Hollander, Frederick H., "Punched Card Calculating and Printing Methods in the Nautical Almanac Office", Proceedings, Scientific Computation Forum, IBM, Nueva York (1948).
  6. Eckert, W.J., Punched Card Methods in Scientific Computation, The Thomas J. Watson Astronomical Computing Bureau, Columbia University, Lancaster Press, Inc., Lancaster PA (enero de 1940).
  7. Grosch, Herbert R.J., Ordenador: Bit Slices from a Life, Tercera edición, 2003 (en manuscrito), especialmente las páginas 62-65.

Original Article: http://www.columbia.edu/cu/computinghistory/tableprinter.html

By Abner Roa

May 05, 2023

Read post
logo
Lagos: Depresiones de agua sin conexión al mar Lagos: Depresiones de agua sin conexión al mar CSR

Un lago puede definirse como cualquier depresión llena de agua que no esté conectada a un océano. Las masas de agua más pequeñas y menos profundas suelen llamarse estanques, pero no existe una regla de tamaño que distinga un lago de un estanque. Normalmente, se trata de una cuestión de nombres locales.

Aproximadamente el 0,009% del agua de la Tierra se encuentra en lagos. Estas masas de agua varían mucho en superficie, profundidad y forma de formación. Muchos, como los 10.000 lagos de Minnesota, son producto de la rotura del drenaje superficial debido a la glaciación del Pleistoceno. Otros se forman como meandros abandonados de ríos o a partir del drenaje superficial en cuencas cerradas. Desde el punto de vista geológico, los lagos suelen ser elementos temporales del paisaje; la mayoría sólo tienen entre 10.000 y 20.000 años. Los relativamente pocos lagos antiguos son de origen tectónico y ocupan valles de fisura. El lago Baikal, en Asia, es el más antiguo, con 50-75 millones de años. El lago Tanganica, en el continente africano, tiene entre 1,5 y 6 millones de años.

La acumulación de sedimentos y la sucesión ecológica se combinan para acabar transformando los lagos en humedales y éstos en los hábitats terrestres del bioma regional.

La edad y la química del agua, determinada esta última por la geología y el clima locales, determinan el número y los tipos de formas de vida de un lago dado. Sólo los lagos antiguos suelen albergar muchas especies endémicas.

Dado que los lagos son receptores de la escorrentía de las tierras circundantes y del caudal de los arroyos, son sensibles a las prácticas locales y regionales de uso del suelo y vulnerables a la contaminación.

Características de los lagos

Dado que los lagos de las zonas templadas han sido objeto de la mayoría de los estudios científicos, sirven como modelo de lago típico, y a menudo se comparan con ellos los lagos de los trópicos o de latitudes y elevaciones elevadas.

Por lo general, un lago es una masa de agua lo suficientemente profunda como para estratificarse en verano, es decir, para presentar distintas capas en función de la temperatura. La capa superior (el epilimnion) se calienta en verano y se mezcla con el viento, lo que ayuda a mantener los nutrientes y el plancton cerca de la superficie del lago. Esta es también la zona en la que penetra la mayor parte de la energía solar y, por tanto, la zona en la que puede tener lugar la fotosíntesis. Por ello, también se denomina zona fótica. La capa inferior, el hipolimnion, contiene agua más fría y densa.

Entre las dos capas hay una estrecha zona de transición en la que la temperatura cambia rápidamente con la profundidad. Es la termoclina.

En las aguas tranquilas de un lago, los nutrientes y los microorganismos tienden a hundirse por debajo de la zona eufótica y deben reciclarse hacia la superficie para ser consumidos o, en el caso de los fitoplancton, para poder realizar la fotosíntesis. La mezcla superficial por el viento lo consigue en el epilimnion; el afloramiento desde abajo revitaliza la capa superior con nutrientes que se hundieron en el fondo del lago.

Los lagos se renuevan debido a los cambios estacionales de temperatura. El agua dulce es más densa a 3,94 °C (39 °F). Si se enfría hasta congelarse a 32°F (0°C), la densidad disminuye, por lo que el agua muy fría sube a la superficie, provocando lo que se conoce como renovación del agua del lago. El perfil de temperatura invernal es tal que el agua y el hielo más fríos se encuentran en la superficie. El agua en el epilimnion estará aproximadamente a 34°F (1°C), mientras que el agua en el hipolimnion se mantiene alrededor de 39°F (4°C).

Por lo tanto, los lagos se congelan de arriba abajo. Cuando el hielo cubre completamente el estanque, actúa como aislante e impide que todos los estanques, salvo los menos profundos, se congelen. Esto permite que los organismos sobrevivan al invierno en el fondo del lago o cerca de él.

En primavera, los lagos de zonas templadas vuelven a revolcarse a medida que las aguas superficiales se calientan, se vuelven más densas y se hunden.

En los lagos tropicales, la renovación es poco frecuente y pueden formarse zonas muertas cerca del fondo a medida que se agota el oxígeno por los procesos de descomposición. Durante la descomposición anaeróbica, el metano y el sulfuro de hidrógeno gaseoso (como materia orgánica disuelta) pueden acumularse y subir a la superficie en raras ocasiones. Cuando se liberan repentinamente en la superficie, estos gases pueden causar la muerte de peces e incluso ser letales para los residentes humanos locales.

La temperatura del agua es importante para determinar la cantidad de oxígeno y dióxido de carbono disueltos en el agua. Ambos gases son mayoritariamente solubles en agua fría y se liberan a medida que el agua se calienta.

Sucesión lacustre

El medio lacustre cambia a medida que se acumulan nutrientes y sedimentos. Los lagos pueden clasificarse según su carga de nutrientes:

Los lagos oligotróficos tienen pocos nutrientes y, por tanto, aguas claras y una biodiversidad relativamente baja.

Los lagos eutróficos son ricos en nutrientes y tienen aguas turbias y verdosas debido a la abundancia de fitoplancton. Hacia el extremo del espectro, los lagos eutróficos son poco profundos, ya que la cuenca se está llenando de sedimentos. La mayor parte de la columna de agua se calienta en verano y la descomposición puede provocar el agotamiento del oxígeno. La fauna se caracteriza por un gran número de relativamente pocas especies.

Los lagos mesotróficos se sitúan entre las condiciones oligotróficas y eutróficas. Tienen suficientes nutrientes, gases disueltos y profundidad para albergar una fauna rica en especies.

La sucesión comienza cuando fitoplancton profundo, geológicamente joven, coloniza lagos oligotróficos. Cuando los sedimentos comienzan a depositarse a lo largo del margen de la masa de agua, se desarrolla una zona litoral poco profunda, un hábitat adecuado para las plantas acuáticas enraizadas. En las aguas menos profundas y más cercanas a la orilla, invaden el agua totoras y juncos emergentes, así como plantas enraizadas con hojas y flores flotantes, como los nenúfares. Estas plantas atrapan los sedimentos y acumulan tierra hacia el exterior del lago. La superficie de agua abierta se reduce con el tiempo y acaba desapareciendo. Un humedal sustituye al antiguo lago. Arbustos leñosos como el aliso, el sauce y el matorral colonizan la periferia. Más tarde, el humedal también desaparece y los tipos de vegetación regionales toman el relevo.

Lagos

El tiempo que tarda un lago en convertirse en tierra firme varía. En los estanques pequeños, puede ser cuestión de uno o dos siglos. En cambio, el lago Baikal, que tiene millones de años, sigue siendo oligotrófico.

La vida en los lagos

El fitoplancton está formado principalmente por cianobacterias filamentosas y algas, sobre todo diatomeas. Estas células flotantes se concentran en la zona eufótica y se encuentran tanto en la zona litoral como en las aguas abiertas de la zona pelágica. Las diatomeas tienen sílice como soporte de sus paredes celulares y necesitan sílice disuelto para prosperar. Suelen ser la parte principal de una floración de algas en primavera y son sustituidas por algas verdes cuando se agota el suministro de sílice. Las cianobacterias, que toleran niveles bajos de oxígeno, pueden convertirse en dominantes hacia finales del verano.

Plantas

Las plantas se encuentran principalmente en la zona litoral. Las emergentes, enraizadas en el fondo pero que se elevan por encima de la superficie del agua, están confinadas a una franja cercana a la orilla. Incluyen plantas como la espadaña, el carrizo, la hierba lucioperca, la hierba flecha y el garrote dorado. Las plantas acuáticas sumergidas también están enraizadas en el fondo del lago y se limitan a aguas poco profundas cerca de la orilla. Toda la planta crece bajo la superficie del agua. Algunos ejemplos son la isoetáceas, la espiga de agua y la cola de zorro. También hay una serie de plantas enraizadas en el fondo pero con hojas y flores flotantes, como los nenúfares, las salpicaduras y los corazones flotantes. Suelen crecer en aguas algo más profundas, más allá de las plantas emergentes. Otras plantas no están enraizadas en el fondo del lago, sino que flotan libremente. Entre ellas se encuentran las utricularias, la lenteja de agua y la lechuga de agua.

En las arenas saturadas de las playas lacustres pueden florecer plantas como la enea, la pogonia rosa (una orquídea) y la drosera insectívora.

Animales

Los zooplanctarios son rotíferos, pulgas de agua y copépodos.

Los invertebrados están representados por esponjas de agua dulce e hidroides que se adhieren a superficies duras y gusanos oligoquetos que excavan en sedimentos blandos. Los caracoles y los mejillones unionidos pueden ser moluscos abundantes en aguas poco profundas. Los insectos son más abundantes en estado larvario. Son importantes las larvas de tricópteros, moscardones, escarabajos, mosquitos y jejenes. Los insectos adultos se presentan como depredadores que se alimentan desde el aire (libélulas y caballitos del diablo) o patinan en la superficie del agua (estanques y barqueros).

Entre los vertebrados acuáticos se encuentran, por supuesto, peces de numerosas especies. Los anfibios están representados por ranas adultas y los renacuajos de ranas y sapos. Los reptiles asociados a los lagos de agua dulce son tortugas, serpientes y caimanes. Las aves visitan los lagos para alimentarse y anidar. Entre ellas hay patos zambullidores como ánades reales y cercetas y aves buceadoras como somormujos, esmerejones, somormujos lavancos y anhingas. Las aves zancudas, como garzas, garcetas e ibis, acechan a sus presas acuáticas en los bajíos de los lagos.

Los mamíferos también visitan los lagos para alimentarse. En las latitudes medias de Norteamérica, los herbívoros habituales que acuden a los lagos son el castor, la rata almizclera y el alce. Entre los carnívoros están el visón, la nutria, el mapache y los murciélagos piscívoros.

Nota: Para obtener información sobre lagos concretos de todo el mundo, visite la base de datos mundial de lagos LakeNet en http://worldlakes.org/lakes.asp o LakeNet "Lagos de un vistazo" en http://www.worldlakes.org/lakeprofiles.asp. Estas últimas páginas ofrecen listas y datos específicos sobre lagos antiguos, lagos más grandes, lagos más profundos y otras categorías.

Para ver buenas fotos de microorganismos de agua dulce, visite http://nwnature.net/micro_org/index.htm. En el mismo sitio hay también buenas fotos de macroinvertebrados de agua dulce, como larvas de insectos, gusanos y moluscos (http://nwnature.net/macros/index.html). Estas fotos tienen derechos de autor, así que no las utilice sin permiso.

Original article: https://php.radford.edu/~swoodwar/biomes/?page_id=113

By Abner Roa

May 18, 2023

Read post
logo
Secuencias de niveles de laberintos: Simples y alternados Secuencias de niveles de laberintos: Simples y alternados CSR

De los laberintos a las matemáticas

De los laberintos a las matemáticas

El hecho básico que permite el estudio matemático de los laberintos de tránsito simple alternante es el siguiente. La topología de un laberinto de tránsito alterno simple está completamente determinada por su secuencia de niveles. Más adelante se explica cómo funciona esto; significa que si dos laberintos de t.a.s. (digamos, ambos en forma desenrollada) tienen la misma secuencia de niveles, entonces uno puede cambiarse para que coincida con el otro, o con la imagen especular del otro mediante una deformación continua que preserve el nivel.

De ello se deduce que una clasificación topológica completa de los laberintos de tránsito alterno simple equivale a determinar qué secuencias de números pueden aparecer como secuencias de nivel y, de hecho, hay tres condiciones que son necesarias y suficientes para que una permutación de los números de 0 a n sea la secuencia de nivel de un laberinto s.a.t. de profundidad n.

  1. La secuencia debe empezar por 0 y terminar por n.
  2. Los números enteros pares e impares deben alternarse en la secuencia.
  3. Considere los pares de números consecutivos en la secuencia de niveles que comienzan con un número par; éstos corresponden a los segmentos verticales en el lado derecho del laberinto. (*)Si dos de estos segmentos se superponen, uno debe estar anidado dentro del otro. Lo mismo ocurre con los pares que comienzan con un número impar, que corresponden a los segmentos verticales de la izquierda.

Ejemplo: en la secuencia de niveles del laberinto de Constantinopla, los segmentos (10,1) y (2,11) se solapan, pero ninguno está anidado en el otro, por lo que no puede tratarse de la secuencia de niveles de un laberinto s.a.t..

He aquí cómo se demuestra esto:

Necesidad de 1: obvia.

Necesidad de 2: Supongamos que dos capas consecutivas unidas por un segmento vertical a la derecha, por ejemplo, tienen la misma paridad; el espacio entre ellas debe tener un número impar de niveles. Cualquier camino que atraviese ese espacio debe entrar y salir por la izquierda, por lo que sólo puede utilizar un número par de niveles. Contradicción.

Necesidad de 3: Piensa en el laberinto desenrollado, con la entrada, digamos, a la derecha. El camino comienza a la derecha en el nivel 0 y desciende hasta un nivel impar. Luego cruza a la izquierda y pasa al siguiente nivel de la secuencia, que será par, luego vuelve a cruzar a la derecha, etc. Así, los pares de números consecutivos de la secuencia de niveles que empiezan por un número par corresponden a los segmentos verticales de la derecha del laberinto, y los que empiezan por un número impar, a los segmentos de la izquierda. Consideremos ahora dos segmentos verticales cualesquiera del camino de la derecha. Si se solapan, uno debe estar anidado dentro del otro. De lo contrario, no podrían conectarse ambos al lado izquierdo mediante segmentos horizontales, ya que el camino del laberinto no puede intersecarse a sí mismo; y lo mismo debe ocurrir con los segmentos del camino vertical de la izquierda.

Suficiencia: Supongamos dada una permutación de los enteros de 0 a n, que satisfaga las condiciones 1, 2 y 3. He aquí cómo convertirla en un laberinto. En un trozo de papel rayado, numera las líneas de 0 a n, empezando por arriba. Para cada uno de los pares consecutivos de números enteros de la secuencia que empiece por un número par, une las líneas numeradas correspondientes con un segmento vertical en la parte derecha de la página. Si dos de estos segmentos están anidados, dibuja el más corto a la izquierda del más largo. Ahora haz lo mismo con los pares que comienzan impares, excepto en el lado izquierdo, con los segmentos más cortos colocados a la derecha. Ahora, en cada una de las líneas numeradas 1,...,n-1 habrá dos extremos libres de la figura. Únelos a lo largo de esa línea; esto deja un extremo libre arriba y otro abajo. Habrás dibujado el hilo de Ariadna de la forma desenrollada del laberinto s.a.t. correspondiente a la secuencia de niveles con la que empezaste. Ahora es fácil dibujar el laberinto propiamente dicho. Además, con sólo dibujar la parte del laberinto cercana a los bordes derecho e izquierdo de la página, y unir estas dos piezas a lo largo de sus espinas exteriores, se produce el núcleo a partir del cual se puede dibujar la forma enrollada.

Tony Phillips

Departamento de Matemáticas SUNY Stony Brook

tony at math.stonybrook.edu

5 de junio de 2018

Original article: https://www.math.stonybrook.edu/~tony/mazes/levelseq.html

By Abner Roa

May 08, 2023

Read post
logo
Johannes Kepler: Las leyes del movimiento planetario Johannes Kepler: Las leyes del movimiento planetario CSR

movimiento planetario

En la interacción entre observación cuantitativa y construcción teórica que caracteriza el desarrollo de la ciencia moderna, hemos visto que Brahe dominaba la primera pero era deficiente en la segunda. El siguiente gran avance en la historia de la astroomía fue la intuición teórica de Johannes Kepler (1571-1630), un alemán que fue a Praga para convertirse en ayudante de Brahe.

Los datos de Brahe y Kepler

Kepler y Brahe no se llevaban bien. Al parecer, Brahe desconfiaba de Kepler, pues temía que su joven y brillante ayudante pudiera eclipsarle como primer astónomo de su época. Por ello, sólo dejó que Kepler viera una parte de sus voluminosos datos.

movimiento planetarioEncargó a Kepler la tarea de comprender la órbita del planeta Marte, que resultó especialmente problemática. Se cree que parte de la motivación para dar el problema de Marte a Kepler fue que era difícil, y Brahe esperaba que ocupara a Kepler mientras Brahe trabajaba en su teoría del Sistema Solar. En una ironía suprema, fueron precisamente los datos marcianos los que permitieron a Kepler formular las leyes correctas del movimiento planetario, alcanzando así con el tiempo un lugar en el desarrollo de la astronomía muy superior al de Brahe.

Kepler y las órbitas elípticas

A diferencia de Brahe, Kepler creía firmemente en el sistema copernicano. En retrospectiva, la razón por la que la órbita de Marte era particularmente difícil era que Copérnico había situado correctamente el Sol en el centro del Sistema Solar, pero se había equivocado al suponer que las órbitas de los planetas eran círculos. Así, en la teoría copernicana seguían siendo necesarios los epiciclos para explicar los detalles del movimiento planetario.

Le correspondió a Kepler proporcionar la pieza final del rompecabezas: tras una larga lucha, en la que trató por todos los medios de evitar su conclusión final, Kepler se vio obligado finalmente a darse cuenta de que las órbitas de los planetas no eran los círculos exigidos por Aristóteles y asumidos implícitamente por Copérnico, sino que eran los "círculos achatados" que los geómetras llaman elipses (véase la figura adyacente; las órbitas planetarias son sólo ligeramente elípticas y no son tan achatadas como en este ejemplo).

movimiento planetarioLa ironía antes señalada reside en la constatación de que las dificultades con la órbita marciana derivan precisamente del hecho de que la órbita de Marte era la más elíptica de los planetas para los que Brahe disponía de amplios datos. De este modo, Brahe había proporcionado a Kepler, sin saberlo, la parte de sus datos que le permitiría formular la teoría correcta del Sistema Solar y, por tanto, ¡desterrar la teoría de Brahe!

Algunas propiedades de las elipses

Puesto que las órbitas de los planetas son elipses, repasemos algunas propiedades básicas de las elipses.

movimiento planetario1. En una elipse hay dos puntos llamados focos, de modo que la suma de las distancias a los focos desde cualquier punto de la elipse es una constante. En términos del diagrama mostrado a la izquierda, con "x" marcando la localización de los focos, tenemos la ecuación

a + b = constante

que define la elipse en función de las distancias a y b.

2. La cantidad de "aplanamiento" de la elipse se denomina excentricidad. Así, en la figura siguiente las elipses se hacen más excéntricas de izquierda a derecha. Un círculo puede considerarse un caso especial de elipse con excentricidad cero, mientras que, a medida que la elipse se aplana, la excentricidad se aproxima a uno.

Matemáticamente se define como la distancia entre los focos dividida por la longitud del eje mayor. Por tanto, todas las elipses tienen excentricidades comprendidas entre cero y uno.

movimiento planetarioLas órbitas de los planetas son elipses, pero las excentricidades son tan pequeñas en la mayoría de los planetas que parecen circulares a primera vista. En la mayoría de los planetas hay que medir cuidadosamente la geometría para determinar que no son círculos, sino elipses de pequeña excentricidad. Plutón y Mercurio son excepciones: sus órbitas son lo suficientemente excéntricas como para que se pueda ver por inspección que no son círculos.

movimiento planetario3. El eje largo de la elipse se denomina eje mayor, mientras que el eje corto se denomina eje menor (figura adyacente). La mitad del eje mayor se denomina semieje mayor. La longitud de un semieje mayor suele denominarse tamaño de la elipse. Puede demostrarse que la separación media entre un planeta y el Sol a medida que recorre su órbita elíptica es igual a la longitud del semieje mayor. Por tanto, por "radio" de la órbita de un planeta se suele entender la longitud del semieje mayor. Para una investigación más detallada de las propiedades de las elipses, consulte este applet de elipses

Las leyes del movimiento planetario

Kepler obtuvo los datos de Brahe tras su muerte, a pesar de los intentos de la familia de Brahe de ocultárselos con la esperanza de obtener beneficios económicos. Hay indicios de que Kepler obtuvo los datos por medios poco legales; es una suerte para el desarrollo de la astronomía moderna que lo consiguiera. Utilizando los voluminosos y precisos datos de Brahe, Kepler pudo basarse en la constatación de que las órbitas de los planetas eran elipses para formular sus Tres Leyes del Movimiento Planetario.

Primera ley de Kepler:

movimiento planetarioLa Primera Ley de Kepler se ilustra en la imagen superior. El Sol no está en el centro de la elipse, sino en un foco (generalmente no hay nada en el otro foco de la elipse). El planeta sigue la elipse en su órbita, lo que significa que la distancia Tierra-Sol cambia constantemente a medida que el planeta recorre su órbita. A efectos ilustrativos, hemos mostrado la órbita como bastante excéntrica; recuerde que las órbitas reales son mucho menos excéntricas que ésta.

Segunda ley de Kepler:

movimiento planetarioLa segunda ley de Kepler se ilustra en la figura anterior. La línea que une el Sol y el planeta barre áreas iguales en tiempos iguales, por lo que el planeta se mueve más rápido cuando está más cerca del Sol. Así, un planeta ejecuta un movimiento elíptico con una velocidad angular que cambia constantemente a medida que se desplaza por su órbita. El punto de mayor aproximación del planeta al Sol se denomina perihelio; el punto de mayor separación, afelio. Por tanto, según la segunda ley de Kepler, el planeta se mueve más rápido cuando está cerca del perihelio y más lento cuando está cerca del afelio.

Tercera ley de Kepler:

movimiento planetarioEn esta ecuación P representa el período de revolución (órbita) de un planeta alrededor del sol y R representa la longitud de su semieje mayor. Los subíndices "1" y "2" distinguen las cantidades correspondientes a los planetas 1 y 2, respectivamente. Se supone que los periodos de los dos planetas están en las mismas unidades de tiempo y que las longitudes de los semiejes mayores de los dos planetas están en las mismas unidades de distancia.

La Tercera Ley de Kepler implica que el periodo de un planeta en órbita alrededor del Sol aumenta rápidamente con el radio de su órbita. Así, Mercurio, el planeta más interior, tarda sólo 88 días en orbitar alrededor del Sol, pero el planeta más exterior (Plutón) necesita 248 años para hacer lo mismo.

He aquí un applet java que permite investigar las leyes de Kepler, y He aquí una animación que ilustra los periodos relativos reales de los planetas interiores.

Cálculos con la tercera ley de Kepler

Una unidad de medida conveniente para los periodos es en años terrestres, y una unidad de medida conveniente para las distancias es la separación media de la Tierra respecto al Sol, que se denomina unidad astronómica y se abrevia como UA. Si se utilizan estas unidades en la 3ª Ley de Kepler, los denominadores de la ecuación anterior son numéricamente iguales a la unidad y puede escribirse de la forma simple

movimiento planetarioEsta ecuación puede resolverse para el período P del planeta, dada la longitud del semieje mayor,

movimiento planetario

o para la longitud del semieje mayor, dado el período del planeta,

movimiento planetario

Como ejemplo de aplicación de la 3ª Ley de Kepler, calculemos el "radio" de la órbita de Marte (es decir, la longitud del semieje mayor de la órbita) a partir del período orbital. Se observa que el tiempo que tarda Marte en orbitar alrededor del Sol es de 1,88 años terrestres. Por tanto, según la 3ª Ley de Kepler, la longitud del semieje mayor de la órbita marciana es

movimiento planetarioque es exactamente la distancia media medida entre Marte y el Sol. Como segundo ejemplo, calculemos el periodo orbital de Plutón, dado que su separación media observada del Sol es de 39,44 unidades astronómicas. A partir de la 3ª Ley de Kepler

movimiento planetarioque es efectivamente el período orbital observado para el planeta Plutón.

Referencias complementarias

  • Archivo de imágenes astronómicas del día
  • Breve biografía de Kepler

Original article: www.pas.rochester.edu/~blackman/ast104/kepler11.html

By Jose Melgarejo

July 24, 2023

Read post
logo
El debate sobre el peso El debate sobre el peso CSR

Len Kravitz, Ph.D.

Introducción

En una edición reciente de Medicina y Ciencia en Deportes y Ejercicio, algunos investigadores destacados (Jakicic et al. 2019, Gaesser et al., 2019) debatieron, en una combinación punto-contra-punto de artículos, si los riesgos para la salud de la obesidad han sido o no exagerados. Nuestro enfoque con esta columna de investigación es el resumen de varios puntos clave sobre la obesidad desde estas perspectivas intelectuales contrastadas y proporcionar la mejor aplicación práctica al profesional del fitness. También discutiremos las directrices conductuales basadas en la evidencia para tratar a las poblaciones obesas.

La obesidad saludable es alcanzable

Gaesser y Blair (2019) sostienen que nosotros, como un campo de investigadores y profesionales, debemos centrarnos más en mejorar los comportamientos de salud y dedicar menos tiempo a las estrategias de pérdida de peso para aquellos clientes con clasificaciones de obesidad IMC (es decir, IMC &Mac179; 30 km/m2). Los investigadores indican que no pretenden minimizar los riesgos de la obesidad, sino señalar que existe una subpoblación de individuos obesos en buena forma física que no se ven afectados negativamente por su adiposidad. Gaesser y Blair subrayan las investigaciones que indican que la forma física cardiorrespiratoria es un importante signo vital de salud y un predictor de mortalidad más potente que la obesidad. En sus conclusiones, Gaesser y Blair instan a los profesionales sanitarios a promover un estilo de vida más saludable, que incluya actividad física y una dieta sana, en lugar de intentar alcanzar un objetivo específico de pérdida de peso. Sugieren que se atenderá mejor a las personas obesas si se diseñan programas dirigidos principalmente a mejorar la forma física, ya que ésta es más importante que los programas dirigidos a combatir la gordura.

La obesidad está relacionada con todas las causas de enfermedad crónica y mortalidad

Jakicic et al. (2019), en su artículo de contrapunto, sostienen que no se han exagerado los riesgos para la salud de la obesidad. Los investigadores citan estudios que muestran que los niveles obesos de IMC están asociados con la mortalidad por enfermedades cardiovasculares en hombres y mujeres, así como con todas las causas de mortalidad. Los científicos prosiguen su argumentación haciendo referencia a estudios que demuestran que el exceso de peso corporal está asociado a varias formas de cáncer y diabetes de tipo 2. En lo que respecta a los pacientes con cáncer, Jakicic y sus colegas señalan que las investigaciones demuestran que un IMC más elevado está relacionado con una peor supervivencia y una mayor probabilidad de reaparición del cáncer. En cuanto a la diabetes de tipo 2, Jakicic et al. denotan estudios que demuestran que la pérdida de peso puede reducir el riesgo de desarrollar esta enfermedad, así como los medicamentos necesarios para tratarla. Varias de las consecuencias negativas para la salud de la obesidad incluyen una correlación con las enfermedades cardiovasculares, la diabetes tipo 2, los trastornos del sueño, el dolor lumbar, el dolor crónico en piernas y pies, el aumento del riesgo de varias formas de cáncer, la reducción del equilibrio y la movilidad, y la reducción de la calidad de vida relacionada con la salud (Jakicic et al. 2019). Jakicic et al. proponen que los proveedores de atención sanitaria aborden la obesidad de manera similar a otros factores de riesgo para la salud (por ejemplo, hipertensión, hiperlipidemia, etc.) en su programación.

Punto-contrapunto: ambas partes ganan

Es interesante observar que uno de los resultados generales de este debate intelectual, sobre si los riesgos para la salud de la obesidad son exagerados, aclara aún más el papel del profesional del fitness y del proveedor de atención sanitaria. En ambos documentos se establece claramente la premisa principal de que las intervenciones que promueven un estilo de vida saludable y ÓPTIMO son las mejores, ya que esto conducirá a los mayores beneficios posibles para la salud de los clientes. Jakicic et al. (2019) afirman que los profesionales del fitness y la salud deben desarrollar una programación que mejore los principales comportamientos de estilo de vida, como una actividad física suficiente, una nutrición óptima, un comportamiento menos sedentario, no fumar y cumplir con la medicación recetada.

Enfoques conductuales para tratar la obesidad

Las intervenciones de estilo de vida que ayudan a los clientes a perder 1-2 libras por semana, lo que resulta en una pérdida de peso del 5-10% en 6 meses, son genuinas (Olson, Bond, y Wing, 2017). Para que se produzca una pérdida de peso óptima, es necesaria una estrategia de déficit de kilocalorías (aproximadamente 500 a 1000 kilocalorías/día) en el consumo de alimentos. Olson y sus colegas sugieren que para las personas de menos de 200 libras de peso corporal, un estilo de vida dietético de 1000 a 1500 kilocalorías es un objetivo sensato, mientras que, para los clientes de más de 200 libras de peso corporal, es preferible un enfoque de 1500 a 1800 kilocalorías. Los investigadores subrayan que el enfoque conductual debe individualizarse en función del cliente, ya que se puede perder peso con éxito con un enfoque bajo en carbohidratos o en grasas, siempre que se reduzcan las kilocalorías de alguna forma.

Según Olson y sus colegas, el autocontrol del peso corporal, la ingesta de alimentos (incluido el consumo de bebidas) y la actividad física (es decir, la aplicación podómetro y los registros de ejercicio) es el mejor predictor del éxito de un enfoque conductual para tratar la obesidad. La autovigilancia sirve para que el cliente reconozca el efecto de su estilo de vida en el peso corporal y la salud. Los investigadores explican que otra estrategia conductual importante es el control de estímulos. Con el control de estímulos, el paciente aprende a reducir las señales que le incitan a comer y a aumentar las que le animan a elegir un estilo de vida saludable. Un ejemplo de esta estrategia es retirar los alimentos ricos en calorías de la cocina y sustituirlos por opciones sanas y bajas en calorías. Otras estrategias conductuales que pueden incluirse en el tratamiento conductual de la obesidad son el establecimiento de objetivos (quizás siguiendo el principio S.M.A.R.T.: específicos, manejables, alcanzables, realistas y limitados en el tiempo) y la resolución de problemas. Con la resolución de problemas, un profesional del fitness puede hablar con un cliente sobre una situación próxima (por ejemplo, una fiesta), que puede hacer que el cliente se sienta tentado a comer (o beber) en exceso. Con la resolución de problemas, el profesional del fitness y el cliente pueden establecer estrategias para gestionar estas situaciones difíciles previstas.

Con la actividad física y el ejercicio para el tratamiento de la obesidad, la progresión constante es la clave. Es adecuado comenzar con 50 minutos semanales de actividad de intensidad moderada (por ejemplo, caminar a paso ligero). Progresar gradualmente hasta 200-250 minutos por semana de ejercicio parece ser una recomendación óptima para el mantenimiento del peso que se pierde (Olson et al., 2017). Olson y sus colegas (2017) también destacan que las intervenciones exitosas contra la obesidad deben contar con estrategias planificadas que combatan el comportamiento sedentario (consulte julio/agosto de IDEA Fitness Journal para obtener ideas). Los investigadores destacan que un programa de pérdida de peso exitoso, además de tener muchos beneficios clínicos, también tiene varios beneficios psicológicos, como la reducción de los sentimientos depresivos, la disminución de la ansiedad, el aumento de la autoestima y la mejora de la imagen corporal.

Tabla 1. Componentes principales de un programa conductual de pérdida de peso

Estrategias conductuales

Resolución de problemas y establecimiento de objetivos

Autocontrol (registro diario de la dieta, el peso, la actividad física y el ejercicio)

Control de estímulos (retirar de casa los alimentos ricos en calorías)

Discutir estrategias para aumentar la adherencia a la dieta y a los objetivos de actividad

Restricción calórica

Reducir la ingesta de grasas y/o hidratos de carbono para alcanzar los objetivos calóricos

Personas >200 lbs: aconsejar una dieta de 1500-1800 kcal/día

Personas de menos de 90 kg: aconsejar una dieta de 1000-1500 kcal/día

Individualizada para producir un déficit de 500-1000 kilocalorías

Actividad física y ejercicio

Comenzar con sesiones de 10 minutos 5 días a la semana

Aumentar progresivamente a sesiones de 30 minutos los 5 días de la semana

Eventualmente, aumentar a 200-250 minutos/semana

Haga ejercicio a una intensidad algo dura

Fuente: Adaptado de Olson et al., 2017

Estrategias para prevenir la recuperación del peso

Tras una pérdida de peso exitosa, a menudo se produce una recuperación de peso en los meses posteriores a la intervención. Olson et al. (2017) sugieren que nuestro entorno obesogénico social contribuye a esta recuperación de peso. Un entorno obesogénico incluye estímulos ambientales que promueven la inactividad física (ascensores, escaleras mecánicas, servicios de entrega, juegos de ordenador, ver la televisión, etc.) y el consumo excesivo de alimentos/bebidas (por ejemplo, porciones demasiado grandes en restaurantes). Según Olson et al., los clientes que mantienen un estilo de vida bajo en calorías, practican actividad física y ejercicio con regularidad y autocontrolan su peso tienen más probabilidades de mantener su pérdida de peso con el paso del tiempo. Los investigadores resumen otras investigaciones que concluyen que el factor predictivo más sólido y fiable del mantenimiento del peso a largo plazo (tras la pérdida de peso) es el ejercicio regular.

Ideas para llevarse a casa

Muchos clientes acuden a entrenadores personales con la esperanza de alcanzar nuevos objetivos de control de peso. Las pruebas de este debate de punto y contrapunto sugieren que si reformulamos nuestros mensajes a los clientes para que alcancen una salud óptima, incluida una actividad física suficiente, una nutrición óptima, un comportamiento menos sedentario, no fumar y cumplir con la medicación recetada, los resultados de los clientes serán mucho más significativos.

Biografía

Len Kravitz, Ph.D., especialista en Ciencias del Ejercicio, es el coordinador del programa de Ciencias del Ejercicio de la Universidad de Nuevo México, donde recibió el Premio al Profesor Sobresaliente del Año y el Premio Presidencial a la Distinción. Acaba de publicar su tercer libro, "HIIT Your Limit" (Amazon).

Referencias:

Jakicic, J.M., Rogers, R.J., y Donnelly, J.E. (2019). Los riesgos para la salud de la obesidad no han sido exagerados. Medicina y ciencia en el deporte y el ejercicio, 51(1), 222-225.

Gaesser, G.A. y Blair, S.N. (2019). Los riesgos para la salud de la obesidad se han exagerado. Medicina y ciencia en el deporte y el ejercicio, 51(1), 218-221.

Olson, K., Bond, D., Wing, R.R. (2017). Enfoques conductuales para el tratamiento de la obesidad. Revista médica de Rhode Island, 100(2), 21-24.

Original article: https://www.unm.edu/~lkravitz/Article%20folder/WeightDebate.html

By Abner Roa

June 05, 2023

Read post
logo
¿Qué es la Semántica? ¿Qué es la Semántica? CSR

Richmond H. Thomason

Versión 1 preparada: 1 de diciembre de 1996

Versión 2 (revisiones menores): 27 de marzo de 2012

Derechos de autor, Richmond H. Thomason, 1996

Se admiten comentarios: Envíe sus comentarios a [email protected]

Explicación: Este documento es un intento de hacer inteligible un área de investigación arcana y poco comprendida para alguien que no sepa lógica ni lingüística. Fue escrito originalmente para una enciclopedia que quería algo accesible incluso para un público preescolar. Pero no aparece en ninguna enciclopedia, porque yo no estaba dispuesto a escribir algo según las especificaciones de los editores, y ellos no estaban dispuestos a cambiar sus especificaciones. Este episodio es un ejemplo más de lo mal que lo han hecho los semanticistas a la hora de concienciar, incluso a los profanos bien informados, de cuáles son los problemas en este campo.

La semántica es el estudio del significado de las expresiones lingüísticas. Puede tratarse de una lengua natural, como el inglés o el navajo, o de una lengua artificial, como un lenguaje de programación informática. El significado en las lenguas naturales lo estudian principalmente los lingüistas. De hecho, la semántica es una de las principales ramas de la lingüística contemporánea. Los informáticos teóricos y los lógicos estudian los lenguajes artificiales. En algunas áreas de la informática, estas divisiones se cruzan. En la traducción automática, por ejemplo, los informáticos pueden querer relacionar textos en lenguaje natural con representaciones abstractas de sus significados; para ello, tienen que diseñar lenguajes artificiales para representar significados.

Existen fuertes conexiones con la filosofía. A principios de este siglo, los filósofos trabajaron mucho en semántica, y todavía siguen haciéndolo.

Cualquiera que hable una lengua tiene una capacidad realmente asombrosa para razonar sobre el significado de los textos. Tomemos, por ejemplo, la frase

(S) No puedo deshacer ese nudo con una mano.

Aunque probablemente nunca hayas visto esta frase, puedes ver fácilmente cosas como las siguientes:

  1. La frase trata de las capacidades de quien la ha dicho o escrito. (Llama a esta persona el hablante).
  2. También trata de un nudo, tal vez uno que el hablante está señalando.
  3. La frase niega que el hablante tenga cierta capacidad. (Esta es la aportación de la palabra 'can't'.)
  4. Desatar es una forma de hacer que algo no esté atado.
  5. La frase no significa que el nudo tenga una mano; tiene que ver con cuántas manos se utilizan para hacer el desatado.

El significado de una frase no es sólo un montón desordenado de los significados de sus palabras. Si eso fuera cierto, "Los vaqueros montan a caballo" y "Los caballos montan a los vaqueros" significarían lo mismo. Así que tenemos que pensar en la ordenación de los significados.

He aquí una disposición que parece poner de manifiesto las relaciones entre los significados de la frase (S).

No [ Yo [ Capaz [ [ [Hacer [No [Atado]]] [Ese nudo]]] [Con una mano] ] ] ]

La unidad [Hacer [No [Atado]] corresponde aquí al acto de desatar; contiene una subunidad correspondiente al estado de estar desatado. Las unidades más grandes corresponden al acto de desatar ese nudo y al acto de desatar ese nudo con una mano. A continuación, este acto se combina con Capaz para formar una unidad mayor, correspondiente al estado de ser capaz de desatar ese nudo con una mano. Esta unidad se combina con Yo para formar el pensamiento de que tengo este estado, es decir, el pensamiento de que soy capaz de desatar ese nudo con una mano. Finalmente, esto se combina con No y obtenemos la negación de ese pensamiento.

Esta idea de que las unidades significativas se combinan sistemáticamente para formar unidades significativas mayores, y de que entender las frases es una forma de resolver estas combinaciones, ha sido probablemente el tema más importante de la semántica contemporánea.

Los lingüistas que estudian la semántica buscan reglas generales que pongan de manifiesto la relación entre la forma, que es la disposición observada de las palabras en las frases, y el significado. Esto es interesante y desafiante, porque estas relaciones son muy complejas.

Una regla semántica para el inglés podría decir que una frase simple que incluya la palabra "can't" (no puedo) siempre corresponde a una disposición de significado como la siguiente

No [ Capaz ... ],

pero nunca a una como

Capaz [ No ... ].

Por ejemplo, "No puedo bailar" significa que no puedo bailar; no significa que no pueda bailar.

Para asignar significados a las frases de una lengua, hay que saber cuáles son. Otro campo de la lingüística, la sintaxis, se encarga de responder a esta pregunta proporcionando reglas que muestran cómo se construyen las frases y otras expresiones a partir de partes más pequeñas y, finalmente, a partir de palabras. El significado de una frase depende no sólo de las palabras que contiene, sino también de su estructura sintáctica: la frase

(S) Eso puede hacerte daño

por ejemplo, es ambigua: tiene dos significados distintos. Éstos corresponden a dos estructuras sintácticas distintas. En una estructura, "Eso" es el sujeto y "puede" es un verbo auxiliar (que significa "capaz"), y en la otra "Eso puede" es el sujeto y "puede" es un sustantivo (que indica una especie de contenedor).

Como el significado de una frase depende tanto de su estructura sintáctica, los lingüistas han reflexionado mucho sobre las relaciones entre la estructura sintáctica y el significado; de hecho, las pruebas de ambigüedad son una forma de poner a prueba las ideas sobre la estructura sintáctica.

Cabría esperar que un experto en semántica supiera mucho sobre lo que son los significados. Pero los lingüistas no han respondido directamente a esta pregunta con mucho éxito. Esto puede parecer una mala noticia para la semántica, pero en realidad no es tan raro que los conceptos básicos de una ciencia de éxito sigan siendo problemáticos: un físico probablemente tendrá problemas para decirle qué es el tiempo. La naturaleza del significado, y la naturaleza del tiempo, son cuestiones fundamentales que debaten los filósofos.

Podemos simplificar un poco el problema diciendo que, sean cuales sean los significados, nos interesa el significado literal. A menudo se transmite mucho más que el significado de una frase cuando alguien la utiliza. Supongamos que Carol dice "Tengo que estudiar" en respuesta a "¿Puedes ir al cine esta noche?". Quiere decir que esa noche tiene que estudiar y que por eso no puede ir al cine. Pero la frase que utilizó literalmente sólo significa que tiene que estudiar. Los significados no literales se estudian en la pragmática, un área de la lingüística que se ocupa del discurso y los efectos contextuales.

Pero, ¿qué es un significado literal? Hay cuatro tipos de respuestas: (1) se puede esquivar la pregunta, o (2) apelar al uso, o (3) apelar a la psicología, o (4) tratar los significados como objetos reales.

(1) La primera idea implicaría intentar reconstruir la semántica de modo que pueda hacerse sin referirse realmente a los significados. Resulta difícil hacerlo, al menos si se quiere una teoría que haga lo que a los semanticistas lingüísticos les gustaría que hiciera una teoría. Pero la idea fue popular a principios del siglo XX, especialmente en las décadas de 1940 y 1950, y se ha retomado varias veces desde entonces, porque muchos filósofos preferirían prescindir de los significados si fuera posible. Pero estos intentos tienden a ignorar los requisitos lingüísticos y, por diversas razones técnicas, no han tenido mucho éxito.

(2) Cuando un angloparlante dice "It's raining" y un francófono dice "Il pleut", puede decirse que existe un patrón común de uso. Pero nadie sabe realmente cómo caracterizar lo que tienen en común las dos expresiones sin invocar de algún modo un significado común. (En este caso, el significado de que está lloviendo.) Así que esta idea no parece explicar realmente qué son los significados.

(3) Aquí se trataría de explicar los significados como ideas. Se trata de una idea antigua, que sigue siendo popular; hoy en día, adopta la forma de desarrollar un lenguaje artificial que se supone que capta las "representaciones cognitivas internas" de un agente ideal que piensa y habla. El problema de este planteamiento es que los métodos de la psicología contemporánea no ayudan mucho a saber en general cómo son esas representaciones internas. Esta idea no parece conducir todavía a una metodología que pueda producir una teoría semántica viable.

(4) Si decimos que el significado de "Marte" es un determinado planeta, al menos tenemos una relación de significado con la que podemos lidiar. Por un lado está la palabra "Marte" y, por otro, esa gran bola de materia que gira alrededor del Sol. Esta claridad es buena, pero es difícil ver cómo se puede abarcar todo el lenguaje de esta manera. No nos ayuda mucho a decir qué significan las frases, por ejemplo. ¿Y qué hay del otro significado de "Marte"? ¿Tenemos que creer en el dios romano para decir que "Marte" tiene sentido? ¿Y qué hay de "el mayor número"?

El enfoque que la mayoría de los semanticistas apoyan es una combinación de (1) y (4). Utilizando técnicas similares a las empleadas por los matemáticos, se puede construir un complejo universo de objetos abstractos que pueden servir como significados (o denotaciones) de diversos tipos de expresiones lingüísticas. Dado que las frases pueden ser verdaderas o falsas, los significados de las frases suelen implicar los dos valores de verdad verdadero y falso. Se pueden inventar lenguajes artificiales para hablar de estos objetos; algunos semanticistas afirman que estos lenguajes pueden utilizarse para captar representaciones cognitivas internas. De ser así, esto también incorporaría elementos de (3), el enfoque psicológico de los significados. Por último, al restringir la atención a partes seleccionadas del lenguaje natural, a menudo se pueden evitar preguntas difíciles sobre qué son los significados en general. Por eso, este enfoque esquiva en cierta medida la cuestión general de qué son los significados. La esperanza sería, sin embargo, que a medida que se abarquen más construcciones lingüísticas, surjan mejores y más adecuadas representaciones del significado.

Aunque los "valores de verdad" pueden parecer artificiales como componentes del significado, son muy útiles para hablar del significado de cosas como la negación; la regla semántica de las oraciones negativas dice que sus significados son como los de las oraciones positivas correspondientes, salvo que el valor de verdad se cambia, falso por verdadero y verdadero por falso. No está lloviendo" es verdadera si "Está lloviendo" es falsa, y falsa si "Está lloviendo" es verdadera.

Los valores de verdad también proporcionan una conexión con la validez y el razonamiento válido. (Es válido inferir una frase S2 a partir de S1 en caso de que S1 no pudiera ser verdadera cuando S2 es falsa). Este interés en el razonamiento válido proporciona una fuerte conexión con el trabajo en la semántica de las lenguas artificiales, ya que estas lenguas se diseñan generalmente con alguna tarea de razonamiento en mente. Los lenguajes lógicos están diseñados para modelar razonamientos teóricos, como las pruebas matemáticas, mientras que los lenguajes informáticos están pensados para modelar una gran variedad de tareas de razonamiento generales y especiales. La validez es útil para trabajar con pruebas porque nos proporciona un criterio de corrección. Lo mismo ocurre con los programas informáticos, donde a veces se puede utilizar para demostrar que un programa es correcto o (si la demostración falla) para descubrir fallos en los programas.

Estas ideas (que en realidad proceden de la lógica) han demostrado ser muy poderosas a la hora de proporcionar una teoría sobre cómo los significados de las oraciones del lenguaje natural dependen de los significados de las palabras que contienen y de su estructura sintáctica. En los últimos cuarenta años se ha avanzado mucho en este sentido, no sólo en el caso del inglés, sino de una gran variedad de lenguas. Esto se ve facilitado por el hecho de que las lenguas humanas son muy similares en el tipo de reglas que se necesitan para proyectar significados de palabras a frases; difieren principalmente en sus palabras y en los detalles de sus reglas sintácticas.

Últimamente ha aumentado el interés por la semántica léxica, es decir, por la semántica de las palabras. La semántica léxica no consiste tanto en intentar escribir un "diccionario ideal". (Los diccionarios contienen mucha información útil, pero no proporcionan realmente una teoría del significado ni buenas representaciones de los significados). La semántica léxica se ocupa más bien de las relaciones sistemáticas entre los significados de las palabras y de los patrones recurrentes entre los distintos significados de una misma palabra. No es casualidad, por ejemplo, que se pueda decir "Sam se comió una uva" y "Sam comió", ya que el primero dice lo que Sam comió y el segundo simplemente que Sam comió algo. Lo mismo ocurre con muchos verbos.

La lógica es una ayuda en la semántica léxica, pero ésta está llena de casos en los que los significados dependen sutilmente del contexto, y hay excepciones a muchas generalizaciones. (Socavar algo es minar debajo de ello; pero entender algo no es pararse debajo de ello). Así que la lógica no nos lleva tan lejos aquí como parece llevarnos en la semántica de las oraciones.

La semántica del lenguaje natural es importante para intentar que los ordenadores sean más capaces de tratar directamente con las lenguas humanas. En una aplicación típica, hay un programa que la gente necesita utilizar. Para ejecutarlo, hay que utilizar un lenguaje artificial (normalmente, un lenguaje de comandos o de consulta con fines especiales) que indique al ordenador cómo realizar alguna tarea útil de razonamiento o de respuesta a preguntas. Pero enseñar este lenguaje a todos los que quieran interactuar con el programa es frustrante y lleva mucho tiempo. Por eso, a menudo merece la pena escribir un segundo programa, una interfaz de lenguaje natural, que medie entre las órdenes sencillas en un lenguaje humano y el lenguaje artificial que entiende el ordenador. Aquí, desde luego, no hay confusión sobre lo que es un significado; los significados que se quieren atribuir a los comandos en lenguaje natural son las expresiones correspondientes del lenguaje de programación que entiende la máquina. Muchos informáticos creen que la semántica del lenguaje natural es útil para diseñar programas de este tipo. Pero es sólo una parte del problema. Resulta que la mayoría de las frases en inglés son ambiguas hasta un punto deprimente. (Si una frase tiene sólo cinco palabras, y cada una de estas palabras tiene cuatro significados, sólo esto da potencialmente 1.024 posibles significados combinados). Por lo general, sólo unos pocos de estos significados potenciales son plausibles. La gente es muy buena para centrarse en estos significados plausibles, sin dejarse abrumar por los significados no intencionados. Pero para ello hace falta sentido común, y de momento no sabemos muy bien cómo conseguir que los ordenadores imiten este tipo de sentido común. Los investigadores del área de la informática conocida como Inteligencia Artificial están trabajando en ello. Mientras tanto, al construir interfaces de lenguaje natural, se puede aprovechar el hecho de que una aplicación específica (como recuperar respuestas de una base de datos) limita las cosas que un usuario es probable que diga. Gracias a esto y a otras técnicas ingeniosas, es posible crear interfaces de lenguaje natural para fines específicos que funcionan extraordinariamente bien, aunque todavía estamos muy lejos de descubrir cómo hacer que los ordenadores comprendan el lenguaje natural para fines generales.

Es probable que la semántica no le ayude a averiguar el significado de una palabra que no entiende, aunque tiene mucho que decir sobre los patrones de significado que se encuentran en las palabras. Desde luego, no puede ayudarte a entender el significado de uno de los sonetos de Shakespeare, ya que el significado poético es muy distinto del literal. Pero a medida que aprendemos más sobre semántica, descubrimos muchas cosas sobre cómo las lenguas del mundo relacionan las formas con los significados. Y al hacerlo, estamos aprendiendo mucho sobre nosotros mismos y sobre cómo pensamos, además de adquirir conocimientos útiles en muchos campos y aplicaciones diferentes.

Original article: web.eecs.umich.edu/~rthomaso/documents/general/what-is-semantics.html

By Jose Melgarejo

June 12, 2023

Read post
logo
El primo de Mersenne de la UCLA El primo de Mersenne de la UCLA CSR

En agosto de 2008, se descubrió un nuevo número primo de Mersenne en uno de los ordenadores del Programa de Informática (PIC) del Departamento de Matemáticas de la UCLA. Este número resulta ser el mayor número primo conocido del mundo, y el descubrimiento ha generado mucho interés. En un esfuerzo por ahorrar tiempo y energía a todo el mundo, he pensado en colgar en la web información en formato de preguntas frecuentes.

Dado que muchas de las preguntas que he recibido proceden de personas sin formación técnica (incluidos niños), estas FAQ no son técnicas. Eso sí, hay que saber qué es un número primo.

No obstante, me veo obligado a hacer esta advertencia: aunque trabajo para el Departamento de Matemáticas, soy administrador de sistemas, no matemático. Si busca información seria sobre los números primos de Mersenne, le remito al excelente sitio web de Chris Caldwell Mersenne Primes: Historia, teoremas y listas. Otros sitios interesantes son la página de Wolfram Mersenne Prime y el entretenido Mersenne Prime Digits and Names de Landon Curt Noll.

Y ahora, ¡las preguntas!

Q. ¿Qué es un primo Mersenne?

A. En resumen, hay una subclase de números primos conocidos como primos de Mersenne. Deben su nombre a Marin Mersenne, un matemático del siglo XVII. En el momento de escribir este artículo, hay menos de 50 números primos de Mersenne conocidos.

Todos los números primos de Mersenne tienen la forma 2P-1, donde P es un primo conocido. El primer primo de Mersenne es 3 porque 22 -1 = 3. Observe que el exponente P es un número primo, en este caso 2. El siguiente primo Mersenne es 7 porque 23 - 1 = 7, siendo P el número primo 3. A continuación viene 31 (25 - 1), luego 127 (27 - 1), 8191 (213 - 1) y 131071 (217 - 1).

Como puede ver, después de los primeros, los números primos de Mersenne se hacen grandes muy rápidamente. Hay una buena tabla de los números primos de Mersenne conocidos aquí que le dará algo de perspectiva.

Los más pequeños de estos números eran conocidos en la antigüedad, pero hasta 1951 sólo 12 habían sido descubiertos. En los últimos 50 años, se han descubierto varias docenas más con la ayuda de ordenadores. Los números primos de Mersenne descubiertos más recientemente son asombrosamente grandes, con millones de dígitos. El primo Mersenne de la UCLA tiene unos 12,9 millones de dígitos.

Tenga en cuenta que todos los números primos de Mersenne son números primos, pero muy pocos números primos son números primos de Mersenne.

Q. ¿Qué es el primo de Mersenne de la UCLA? ¿Por qué es especial?

A. El primo de Mersenne de la UCLA es el primer número primo descubierto que tiene más de 10 millones de dígitos. Se descubrió en el departamento de Matemáticas de la UCLA el 23 de agosto de 2008.

Todos los números primos de Mersenne son especiales por su rareza, pero éste ha recibido una atención especial porque puede optar a un premio (véase más abajo).

El número primo de Mersenne de la UCLA es 243112609 - 1. El número real tiene 12.978.189 dígitos. Si le interesa, Landon Curt Noll, investigador de números primos de Mersenne desde hace mucho tiempo, ha puesto el número a su disposición aquí. Si le interesa mucho, también puede consultar el número completo en inglés (los 328 megabytes que contiene) aquí.

Q. ¿Es éste el primer número Mersenne de UCLA?

A. En realidad, ¡es el octavo número primo Mersenne de la UCLA!

En 1952, el profesor Raphael Robinson encontró 5 nuevos números primos de Mersenne utilizando el Standards Western Automatic Computer (SWAC) de la UCLA, uno de los ordenadores más rápidos de su época. Se trataba de los números 13 a 17 descubiertos y cada uno de ellos tenía cientos de dígitos. Los números primos de Mersenne de Robinson fueron los primeros que se descubrieron en 75 años y los primeros que se descubrieron utilizando un ordenador digital.

En 1961, el matemático de la UCLA Alexander Hurwitz descubrió los números 19 y 20 de los Primeros de Mersenne en el ordenador central IBM 7090 del Centro de Computación de la UCLA. Cada uno de estos números tenía más de 1.200 dígitos.

Ahora, 47 años después, la tradición de la UCLA de descubrir los primos de Mersenne continúa.

Q. ¿Quién busca los primos de Mersenne? ¿Cómo lo hacen?

A. Miles de personas utilizando decenas de miles de ordenadores están participando en la Gran Búsqueda de Primeros Mersenne en Internet (GIMPS), un esfuerzo organizado dedicado a la búsqueda de Primeros Mersenne. Este es uno de los muchos esfuerzos en curso en el campo de la computación distribuida, y podría decirse que el más exitoso.

La búsqueda está muy bien organizada. La buena gente de Primenet ha estado coordinando el esfuerzo durante los últimos 12 años, y proporciona el excelente programa Prime95 de forma gratuita a cualquiera que quiera ejecutarlo. Llevan un registro de los números que han sido probados y proporcionan un flujo constante de números candidatos no probados a la comunidad del GIMPS. Los participantes en el GIMPS se clasifican en función de su productividad. Puedes encontrarnos bajo el nombre de UCLA_Math; normalmente estamos clasificados en algún lugar entre el puesto 40 y el 55.

Una sola máquina puede tardar meses en probar un solo número candidato, pero si se aprovecha la potencia de los ordenadores individuales conectados a Internet en todo el mundo, se puede avanzar rápidamente.

Q. ¿Cuáles son las probabilidades de descubrir un primo de Mersenne?

A. Según el proyecto GIMPS, la probabilidad de que cualquier número candidato resulte ser un primo de Mersenne es de 1 entre 150.000.

Q. ¿Cómo se comprueban los números para ver si son primos de Mersenne?

A. Hay muchos números de la forma 2P- 1, pero sólo unos pocos de ellos son primos de Mersenne. Hay una serie de técnicas para probar estos números para ver si son primos de Mersenne, pero el método inicial es tratar de factorizar el exponente candidato, P, y luego tratar de factorizar el primo candidato, 2P-1, utilizando algunos primos pequeños.

Hay un algoritmo de 75 años de antigüedad llamado Prueba Lucas-Lehmer que es ampliamente reconocido como la mejor herramienta para probar Primas Mersenne. El programa Prime95 utiliza ampliamente este método, así como algunos otros. Una explicación va más allá del alcance de este documento, pero el lector interesado puede obtener más información aquí.

Q. ¿Por qué busca la gente los primos Mersenne? ¿Para qué sirven?

A. Por las mismas razones que la gente escala montañas, navega por mares desconocidos y explora el cosmos. Es un reto. Es emocionante superar los límites de las matemáticas computacionales y buscar algo desconocido que crees que está ahí fuera. Además, a diferencia de los antiguos exploradores, nosotros podemos sentarnos en cómodas sillas de oficina mientras buscamos.

Esto no quiere decir que los números primos de Mersenne no tengan valor matemático. Sin duda son valiosos en el campo de la criptografía y pueden tener otros usos aún por descubrir.

El investigador de números primos Chris Caldwell profundiza en esta cuestión en su artículo "¿Por qué la gente encuentra estos números primos?".

Q. Aparte del reto, ¿por qué decidió participar?

A. Como ha ocurrido en muchos otros sitios, nos dimos cuenta de que nuestro gran laboratorio informático PIC/Math (75 puestos) sólo utilizaba una fracción de la potencia de CPU disponible. En lugar de desperdiciar todos esos ciclos, estudiamos varios proyectos de computación distribuida y decidimos que GIMPS era el más adecuado para nosotros. Además de la idoneidad de que GIMPS fuera un proyecto basado en Matemáticas, encontramos que estaba muy bien escrito y no interfería con los usuarios de ordenadores de pregrado (esto no era cierto de algunos de los otros proyectos de software que investigamos).

El Programa de Informática (PIC) atrae a estudiantes de todo el campus, por lo que era importante para nosotros que cualquier proyecto informático del laboratorio fuera comprensible para todos. GIMPS encajaba a la perfección en este caso y, además, pensamos que la competición informal entre los centros GIMPS sería interesante para nuestros estudiantes y aumentaría su conocimiento de las Matemáticas Computacionales.

Q. ¿Qué hicieron para organizarlo? ¿Fue complicado?

A. El software GIMPS Prime95 es muy sencillo desde el punto de vista de la administración del sistema. Es fácil de instalar y no requiere mantenimiento.

El software Prime95 envía actualizaciones periódicas sobre su estado de procesamiento a los ordenadores centrales de Primenet. Si el equipo en el que se ejecuta se cae, los cálculos se reanudarán donde se quedaron cuando el equipo vuelva a funcionar. Si una caja individual está fuera de servicio durante un período prolongado, Primenet recuperará el número y lo asignará a otra persona, y asignará un nuevo número cuando la máquina vuelva a estar en servicio.

Q. ¿Cómo funciona la verificación?

A. Cuando se encuentra un número primo de Mersenne, no se hace un anuncio formal hasta que una tercera parte independiente valida la afirmación. Con números excepcionalmente grandes como éstos, siempre hay una pequeña posibilidad de que se produzca un problema computacional con el algoritmo utilizado, o con la CPU del propio ordenador (el Problema del punto flotante de Intel es un ejemplo clásico de esto).

Debido a estos problemas potenciales, los Primeros Mersenne son siempre validados usando un algoritmo completamente diferente en un ordenador con una arquitectura diferente. La verificación puede llevar dos semanas o más.

Q. ¿Cuándo se produjo el descubrimiento? ¿Qué tipo de ordenador se utilizó?

A. El cebador Mersenne de la UCLA se descubrió el 23 de agosto de 2008 en un ordenador llamado zeppelin.pic.ucla.edu, un Dell Optiplex 745 con Windows XP y una CPU Intel Core 2 Duo E6600 a 2,4 GHz. El nombre "zeppelin" formaba parte de nuestra serie de ordenadores Classic Rock Band.

Q. ¿Qué es eso de los premios en metálico?

A. La Electronic Frontier Foundation (EFF), la principal organización de defensa de las libertades civiles en Internet, patrocina los Cooperative Computing Awards. Estos premios pretenden "animar a los usuarios de Internet a contribuir a la resolución de grandes problemas científicos" y están dotados con premios en metálico cuando se alcanzan determinados objetivos.

La EFF tiene un premio permanente de 100.000 dólares para el primer número primo de 10 millones de dígitos que se descubra. El primo Mersenne de la UCLA tiene casi 12,9 millones de dígitos y cumple los criterios del premio. Una vez publicados los resultados formales en una revista adecuada, se concederá el premio. Esto ocurrirá como muy pronto en 2009.

Por acuerdo previo, sólo el 50% del premio se destinará al descubridor del primo de 10 millones de dígitos. El 25% se destinará a obras benéficas y, en reconocimiento de la naturaleza colaborativa del GIMPS, la mayor parte del 25% restante irá a los descubridores de otros primos de Mersenne, con una pequeña cantidad para el propio GIMPS.

Q. ¿Qué es eso que he oído sobre un póster? ¿Habrá uno para el primo Mersenne de UCLA?

A. Durante años, una empresa llamada Perfectly Scientific ha estado creando un póster del mayor número primo explícito conocido en la actualidad. El póster de M44, producido en 2006, utilizaba un tipo de letra extremadamente pequeño para comprimir 9,8 millones de dígitos en un único póster de 29 por 40 pulgadas. La empresa ofrecía una lupa de joyero junto con el póster para que pudiera leerse.

Richard Crandall, de Perfectly Scientific, se puso en contacto conmigo hace poco para informarme de que ya se puede comprar el póster de Mersenne Prime de la UCLA. Cuesta 99 dólares, sin marco, y está disponible en el sitio web de Perfectly Scientific.

Q. ¿Qué pasa con el otro Mersenne Prime descubierto recientemente?

A. Dos semanas después de que se descubriera el primo Mersenne de la UCLA, otro primo Mersenne de más de 10 millones de dígitos fue descubierto por Hans-Michael Elvenich en Alemania. Con 11,2 millones de dígitos, es aproximadamente un 10% más pequeño que el primo Mersenne de la UCLA.

No es la primera vez que se descubren primos de Mersenne fuera de orden. En 1988, Colquitt y Welsh descubrieron un primo de Mersenne más pequeño que los dos anteriores, descubiertos en 1983 y 1985.

En el momento de escribir este artículo, el primo de Mersenne de la UCLA se considera el 46º primo de Mersenne (llamado "M46" por la comunidad que busca primos de Mersenne), aunque fue el 45º descubierto. El primo Mersenne de Elvenich es M45, ¡pero fue el 46 descubierto!

Como complicación adicional, no todos los primos potenciales entre M39 (descubierto en 2001) y el primo Mersenne de la UCLA han sido probados, por lo que podría haber más encontrados en ese rango en una fecha futura. Si es así, el primo de la UCLA será "ascendido" a M47.

Mi más sincero agradecimiento a todas las personas que me han ayudado con este documento. Gracias a Sal Zapien y Mary Margaret Smith por su excelente corrección de pruebas, y a Jim Carter por su ayuda con la estructura y la organización. En especial, quiero dar las gracias a Robert Johnson, que se aseguró de que todas y cada una de mis afirmaciones se ajustaban a la realidad y corrigió amablemente mis numerosos conceptos erróneos.

Este FAQ creado y mantenido por Edson Smith. Última actualización julio, 2018.

Original article: www.math.ucla.edu/~edson/prime/

By Jose Melgarejo

July 24, 2023

Read post
Showing 1 - 15 from 43
Check these out instead
logo
Manual de Usuario: unixODBC Manual de Usuario: unixODBC CSR

Peter Harvey
Artículo Original: https://www.unixodbc.org/doc/UserManual/

Bienvenido al Manual de Usuario de unixODBC. Este manual está dirigido a personas que utilizarán unixODBC para acceder a fuentes de datos desde herramientas y aplicaciones desarrolladas por terceros. Este manual complementa el Manual del Administrador y el Manual del Programador, cada uno de los cuales está dirigido a un público más técnico.

Primeros pasos

En este punto, unixODBC ha sido instalado por el administrador del sistema. El administrador del sistema debe haber instalado y registrado al menos un controlador ODBC. Para ello, siga las instrucciones del Manual del administrador.

Necesitará una cuenta en la máquina UNIX/Linux, que también le proporcionará su administrador del sistema. De hecho, si tiene problemas en algún punto de este manual, debería consultar a su Administrador de Sistemas para asegurarse de que todo el software necesario está instalado, las cuentas asignadas y los privilegios concedidos. También es posible que desee hablar con su Administrador de Base de Datos (DBA) para asegurarse de que tiene acceso a su base de datos y para resolver cualquier duda sobre qué controlador utilizar y qué opciones configurar.

A los usuarios de UNIX se les puede dar una amplia variedad de métodos para acceder a los recursos de su cuenta y estos métodos de acceso normalmente caen en una de dos categorías.

  1. cuenta shell (sesiones telnet y terminal)
  2. escritorio gráfico

Si se limita a una cuenta shell, no podrá utilizar las herramientas ODBCConfig y DataManager.

Ya estamos listos para empezar a utilizar las herramientas unixODBC. Lo primero que debes hacer es verificar que tienes un DNS de Sistema funcionando. Si no lo tiene; entonces debe crear un DNS de Usuario. Estas tareas se pueden realizar utilizando la herramienta ODBCConfig.

Uso de ODBCConfig

La herramienta ODBCConfig está diseñada para permitirte configurar fácilmente una Fuente de Datos (DSN). Los DSN actúan como un punto de acceso para llegar a tus datos. En muchos casos, crear un DSN es tan sencillo como elegir un controlador, seleccionar un servidor e introducir un nombre para el DSN. De hecho, DSN significa Nombre de Fuente de Datos.

El uso de la herramienta ODBCConfig le resultará bastante intuitivo gracias a su sencilla interfaz gráfica de usuario (véase la Imagen 1), pero debe comprender algunos términos antes de empezar.

Manual de Usuario: unixODBC

Imagen 1


DSN de usuario

Estas son sus fuentes de datos personales. Puede añadir nuevas, eliminar y/o configurar las existentes. La información del DSN de usuario se almacena en una ubicación secreta a la que sólo usted puede acceder. Mantener sus DSN de usuario separados de otros DSN le permite una gran flexibilidad y control sobre la creación y el trabajo con fuentes de datos que sólo son importantes para usted.

DSN de Sistema

Son creados por el Administrador del Sistema. Actúan de forma muy parecida a los DSN de usuario, pero con tres diferencias importantes.

  1. SÓLO el Administrador del Sistema puede; Añadir, Eliminar y Configurar DSN's del Sistema.
  2. Los DSN de sistema sólo se utilizarán si el DSN no existe como DSN de usuario. En otras palabras; su DSN de Usuario tiene precedencia sobre el DSN de Sistema.
  3. Todos comparten la misma lista de DSN de sistema.

Drivers

Los Drivers contienen el código especial necesario para comunicarse con el tipo específico de base de datos con el que se va a trabajar. Suelen proceder del proveedor de la base de datos, pero también pueden encontrarse en el paquete unixODBC. El administrador del sistema es el único usuario que puede instalar y registrar un driver. Usted seleccionará el Driver a utilizar cuando añada un nuevo DSN.

Añadir un DSN

Querrá asegurarse de que tiene al menos un DSN funcionando. Aquí tiene una guía rápida paso a paso para crear su primer DSN de usuario. No lo usaremos todavía porque eso implicará usar otras herramientas y aún no hemos hablado de ellas.

1. Ejecutar ODBCConfig

Esto puede hacerse de varias maneras. Si sabes que tienes un icono o un elemento de menú para ODBCConfig en tu escritorio, ejecútalo utilizando uno de estos métodos. Si no lo tiene, inicie un shell e introduzca el comando ODBCConfig. Debería aparecer una ventana emergente (ver Imagen 1).

2. Añada

Haga clic en la pestaña DSN de usuario para asegurarse de que está trabajando con DSN de usuario. Haga clic en el botón Añadir. Seleccione un driver de la lista. Si la lista está vacía, póngase en contacto con el administrador del sistema; sólo el administrador del sistema puede añadir controladores. En este ejemplo intentaremos utilizar el Controlador de Archivos de Texto. Seleccione el Driver de Archivo de Texto si lo tiene disponible.

3. Editar Opciones

Aparecerá una lista de opciones DSN que puede editar. La Imagen 2 muestra las opciones para el controlador de archivos de texto, pero es posible que tenga un conjunto diferente de opciones si ha seleccionado un controlador distinto. Las opciones comunes son: Nombre (debe introducirse un nombre único). Descripción, Trace y TraceFile.

Manual de Usuario: unixODBC

Imagen 2

Introduzca un nombre único, escriba un comentario, desactive Trace y haga clic en Ok para guardarlo. Puede hacer clic en Configurar, en la ventana principal, para volver a estas opciones en cualquier momento en el futuro.

4. Ya ha terminado

Observa que ahora tienes tu nuevo DSN listado en el formulario principal. Esto significa que puede intentar utilizarlo en cualquier herramienta o aplicación que utilice DSNs ODBC para el acceso a datos. Esto incluye muchas aplicaciones como procesadores de texto y hojas de cálculo. Puede probar su DSN utilizando el DataManager.

Resumen

ODBCConfig es una herramienta útil para PowerUsers pero es lo suficientemente simple para que casi cualquier usuario pueda usarla. ODBCConfig expone la razón más importante para usar ODBC para acceder a sus datos; la habilidad para usted o su Administrador de Sistemas de cambiar la Fuente de Datos para sus herramientas y aplicaciones. Por favor, tómese un tiempo para familiarizarse con ODBConfig y sus opciones de Driver, quizás siéntese con alguien que sea un poco más técnico y hable sobre ello durante uno o dos minutos. Será recompensado.

Uso del DataManager

El DataManager es una gran herramienta gráfica para explorar sus fuentes de datos. Le permite explorar sus Fuentes de Datos de una manera similar a la exploración de su sistema de archivos. El DataManager (ver Imagen 6) está dividido en dos vistas. A la izquierda se encuentra la vista en árbol. La vista en árbol es donde puede desglosar la información que le interese. A la derecha tiene una vista detallada. La vista detallada muestra cualquier detalle que pueda estar disponible para el elemento seleccionado en la vista en árbol.

Al igual que ODBCConfig, puede ejecutar el DataManager de varias formas. Una forma es ir a un intérprete de comandos e introducir el comando DataManager. Aparecerá una ventana similar a la de la Imagen 6.

Manual de Usuario: unixODBC

Imagen 6

A continuación, despliegue los nodos para acceder a la información que le interese. Se le pedirá que inicie sesión si intenta profundizar más allá de una Fuente de Datos. En ese caso, introduzca el nombre de usuario y la contraseña que le proporcionó el administrador de la base de datos o el administrador del sistema. Sabrá que ha iniciado sesión cuando la pequeña pantalla del ordenador cambie de Rojo a Verde.

Una de las Vistas Detalladas más interesantes se produce cuando selecciona un elemento de Fuente de Datos en la Vista en árbol cuando ha iniciado sesión en ella (la pequeña pantalla del ordenador es Verde). La Vista Detallada es un editor SQL. Esto sólo es útil si conoce el lenguaje de comandos SQL, pero para aquellos que no lo conocen... puede ser muy útil.

Resumen

La herramienta DataManager es una buena manera de probar un DSN y luego ver qué recursos están disponibles dentro de la fuente de datos. También es muy fácil de usar.

Usando isql

Esta es una herramienta de línea de comandos. Esto significa que puedes utilizarla incluso si no estás trabajando en un Escritorio Gráfico (por ejemplo; en una sesión telnet). Esta herramienta está diseñada para usos más avanzados de unixODBC. Puede utilizar isql para probar una conexión, pero está diseñado para ser utilizado por aquellos que tienen experiencia con el Lenguaje de Consulta Estructurado (SQL). Probablemente no quieras utilizar esta herramienta si no estás familiarizado con SQL.

isql le permite;

  1. conectarse a su Fuente de Datos (usando un DSN)
  2. enviar comandos SQL a la Fuente de Datos
  3. recibir resultados de la Fuente de Datos

Esta herramienta puede actuar en modo batch o en modo interactivo. La Imagen 3 muestra una simple sesión interactiva.

Manual de Usuario: unixODBC

Imagen 3

La Imagen 4 muestra un ejemplo de isql en modo batch. Observe que se le indica que ejecute una consulta similar a la anterior, pero esta vez procedente de un archivo ( Mi.sql ).


Manual de Usuario: unixODBC

Imagen 4

El ejemplo de la Imagen 4 también formatea los resultados en una tabla HTML y los envía a un nuevo archivo ( Mi.html ). La Imagen 5 muestra la tabla HTML resultante.

Manual de Usuario: unixODBC

Imagen 5

Resumen

isql es una potente herramienta para trabajar SQL y acceder a su fuente de datos, pero es más para el usuario avanzado.

StarOffice 5

StarOffice es una aplicación similar en objetivos a MS Office. Puede descargarse una versión gratuita, para uso no comercial, desde el sitio web de StarDivisions. La Imagen 7 muestra una tabla PostgreSQL siendo explorada en StarOffice. Puede utilizar datos ODBC, pero puede resultar complicado ponerlo en marcha. He aquí algunas cosas a tener en cuenta sobre el uso de StarOffice con unixODBC. Asegúrese de que unixODBC está instalado en su máquina antes de intentar usar ODBC de StarOffice en UNIX.

Manual de Usuario: unixODBC

Imagen 7

Q. StarOffice desaparece cuando intento cargar una lista de DSN ODBC y aparece un error en mi ventana de terminal sobre la falta de algún archivo de biblioteca...

A. Si tiene StarOffice 5.0 puede intentar añadir lo siguiente a su script de inicio de soffice export LD_PRELOAD=/usr/lib/libodbc.so Su script de inicio de soffice se encuentra en Office50/bin/soffice y puede editarse con cualquier editor de texto. Si no está seguro de dónde está libodbc.so o dónde está soffice, puede utilizar el comando find de UNIX.

Sin embargo, con la versión de StarOffice 5.1 y posteriores, todo lo que tiene que hacer es añadir la ruta a libodbc.so a /etc/ld.so.conf o a su variable de entorno LD_LIBRARY_PATH.

Q. ¿Funcionan todos los controladores ODBC con StarOffice?

A. StarOffice es muy exigente con los controladores ODBC. StarOffice necesita muchas características ODBC para aceptar un controlador. Dos controladores que se sabe que funcionan son: 1. PostgreSQL y 2. MySQL. Se está trabajando activamente en otros controladores.

Resumen

StarOffice es una "estrella" en ascenso en el mundo UNIX. Puede combinar StarOffice con unixODBC para acceder a sus datos. Con StarOffice y unixODBC puede extraer sus datos en una hoja de cálculo, un procesador de textos o incluso crear formularios web basados en sus datos.

Conclusión

unixODBC viene con una variedad de herramientas útiles y potentes que le permiten configurar su acceso ODBC y trabajar con sus datos ODBC. Familiarizarse con estas herramientas es un gran comienzo para utilizar tu ODBC en aplicaciones como procesadores de texto, hojas de cálculo e incluso aplicaciones desarrolladas en tu empresa de empleo. Espero que las disfrute. Envíeme sus comentarios y/o sugerencias por correo electrónico, [email protected].

By Marglin Araujo

December 27, 2023

Read post
logo
Índice de masa corporal (IMC) Índice de masa corporal (IMC) CSR

Calcule su "nuevo IMC"

En su edición del 5 de enero de 2013, The Economist publicó esta carta mía:

SIR - El índice de masa corporal con el que usted (y el Servicio Nacional de Salud) cuentan para evaluar la obesidad es una medida extraña. Vivimos en un mundo tridimensional y, sin embargo, el IMC se define como el peso dividido por la altura al cuadrado. Se inventó en la década de 1840, antes de las calculadoras, cuando una fórmula tenía que ser muy simple para ser utilizable. Como consecuencia de esta definición infundada, millones de personas bajas se creen más delgadas de lo que son, y millones de personas altas se creen más gordas.

Nick Trefethen

Profesor de análisis numérico

Universidad de Oxford

La aparición de esta carta, ciertamente muy dura, ha dado lugar a comunicaciones de muchas personas de todo el mundo, y me gustaría explicar una fórmula que creo que valdría la pena considerar como alternativa.

Fórmula actual: IMC = peso(kg)/altura(m)^2 = 703*peso(lb)/altura(pulg)^2.

Lo extraño es la aparición de ese exponente 2, aunque nuestro mundo sea tridimensional. Se podría pensar que el exponente debería ser simplemente 3, pero eso no coincide en absoluto con los datos. Se sabe desde hace tiempo que las personas no se escalan de forma perfectamente lineal a medida que crecen. Propongo que una mejor aproximación a los tamaños y formas reales de los cuerpos sanos podría venir dada por un exponente de 2,5. Así pues, he aquí la fórmula que creo que merece la pena considerar como alternativa al IMC estándar:

Nueva fórmula: IMC = 1,3*peso(kg)/altura(m)^2,5 = 5734*peso(lb)/altura(pulg)^2,5

Los números 1,3 y 5734 están diseñados para que la lectura del IMC no cambie para un adulto de estatura media, que yo considero de unas 66,5 pulgadas, es decir, 1,69 metros. (La raíz cuadrada de 1,69 es 1,3.) Para encontrar su "Nuevo IMC", pruebe la Nueva Calculadora de IMC escrita por Nick Hale.

¿Estos números son "correctos"? No, porque los seres humanos son complicados y cualquier fórmula de IMC sólo proporciona un número. Ningún número puede ser correcto y, de hecho, la extrema dependencia de las instituciones médicas y aseguradoras actuales de una fórmula simple me preocupa mucho. Pero quizá esta fórmula revisada refleje mejor que la estándar cómo el peso de los adultos sanos depende realmente de su estatura.

¿Habría alguna diferencia? Pues sí. A grandes rasgos, cada persona de 1,80 metros de altura perdería un punto de su IMC y cada persona de 1,50 metros ganaría un punto. Son millones de personas. Si las nuevas cifras dieran una indicación más precisa de los problemas de salud reales, esto podría ser un cambio significativo para mejor.

¿Qué hay de la densidad muscular frente a la grasa? Oímos hablar de ello con frecuencia en los debates sobre el IMC (incluso en el artículo de The Economist al que respondía, que mencionaba a los levantadores de pesas olímpicos), pero se trata de un efecto menor. El músculo es un 18% más denso que la grasa. Esto significa que si se ejercitara heroicamente tanto que convirtiera el 10% de su volumen corporal de grasa a músculo (¡vaya!), su lectura del IMC subiría sólo un 1,8%. Eso es mucho menos que las correcciones que acabamos de mencionar para las personas bajas o altas.

¿Qué ocurre con los hombres y las mujeres? Es una pregunta fascinante. Por término medio, las mujeres son un 8% más bajas que los hombres, por lo que si pasamos del IMC actual al nuevo IMC, el valor típico de una mujer subiría un 2% y el de un hombre bajaría un 2%. Puede parecer poco, pero es alrededor de medio punto de IMC, por lo que llevaría a muchas personas más allá de los límites normal/sobrepeso o sobrepeso/obesidad (25 y 30, respectivamente). A veces se dice que las mujeres pueden tener un IMC más alto que los hombres antes de sufrir los efectos de la obesidad. De ser cierto, ¿se trata en parte de una anomalía causada por la definición actual de IMC? No lo sé.

Debo terminar subrayando que soy matemático aplicado, no médico ni epidemiólogo. Las nuevas fórmulas propuestas más arriba no se basan en estudios epidemiológicos, y pueden no suponer una mejora por todo tipo de razones. Para hacerse una idea de la complejidad de la cuestión del IMC, un buen lugar para empezar es el artículo de Wikipedia sobre el tema, y para un artículo epidemiológico clave que apoya el uso del exponente 2,0, véase S. B. Heymsfield et al., American Journal of Clinical Nutrition, 2007. La obesidad será uno de los mayores problemas sanitarios del siglo XXI en todo el mundo. Si se va a depositar una gran confianza en una única fórmula para evaluarla, la justificación de esa fórmula merece un debate cuidadoso.

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

[El profesor Alain Goriely, de Oxford, ha contribuido con los siguientes fascinantes comentarios. Parece que el propio inventor de la fórmula del IMC mencionó el exponente 2,5].

El IMC fue discutido por primera vez por Quetelet, el primer científico belga (publicó su investigación sobre el peso de los hombres a diferentes edades en 1832, 2 años después de la creación de Bélgica, así que de hecho fue el primero).

El IMC se conoció durante muchos años como índice de Quetelet, hasta que el estadounidense Ancel Keys lo rebautizó como IMC. Pero el propio Quetelet era muy consciente de la [complejidad de la] elección del escalado. He aquí una cita de su libro "Tratado sobre el hombre y el desarrollo de sus facultades", 1842:

Si el hombre aumentara por igual en todas las dimensiones, su peso a diferentes edades sería como el cubo de su estatura. Ahora bien, esto no es lo que realmente observamos. El aumento de peso es más lento, excepto durante el primer año después del nacimiento; entonces, la proporción que acabamos de señalar se observa con bastante regularidad. Pero después de este período, y hasta cerca de la edad de la pubertad, el peso aumenta casi como el cuadrado de la altura. El desarrollo del peso vuelve a ser muy rápido en la pubertad y casi se detiene después de los veinticinco años. En general, no nos equivocamos mucho cuando suponemos que durante el desarrollo, los cuadrados del peso a diferentes edades son como las quintas potencias de la altura, lo que naturalmente lleva a esta conclusión, en apoyo de la constante de gravedad específica, que el crecimiento transversal del hombre es menor que el vertical.

[En el párrafo siguiente, sin embargo, Quetelet sugiere efectivamente el exponente 2 para los adultos plenamente desarrollados].

Original article: https://people.maths.ox.ac.uk/trefethen/bmi.html

By Abner Roa

August 21, 2023

Read post
logo
Notas sobre los Doctorados Notas sobre los Doctorados CSR

por Douglas E. Comer
Artículo Original: https://www.cs.purdue.edu/homes/dec/essay.phd.html

La semana pasada, en la hora del café del coloquio del departamento, varios estudiantes entablaron un debate con el profesorado sobre nuestro programa de doctorado. Quedó claro que muchos de los estudiantes no entendían los conceptos básicos; les sorprendieron algunas de las preguntas y les confundieron algunas de las respuestas.

Estas notas proporcionan información básica sobre el propósito de un programa de doctorado en un intento de ayudar a los estudiantes a decidir si desean cursar un doctorado.

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Fundamentos

El título de Doctor en Filosofía, abreviado Ph.D., es el más alto grado académico que se puede obtener. Dado que la obtención de un doctorado requiere un estudio prolongado y un intenso esfuerzo intelectual, menos del uno por ciento de la población obtiene este título. La sociedad muestra respeto por una persona que posee un doctorado dirigiéndose a ella con el título de “Doctor”.

Para obtener un doctorado hay que lograr dos cosas. En primer lugar, hay que dominar por completo un tema específico. En segundo lugar, hay que ampliar los conocimientos sobre ese tema.

Dominar un tema

Para dominar un tema, el estudiante busca en la literatura publicada y lee todo lo que se ha escrito sobre él. En las disciplinas científicas, el estudiante empieza estudiando obras de referencia general, como los libros de texto. Con el tiempo, el estudiante también debe buscar en revistas académicas, las publicaciones que los científicos utilizan para intercambiar información y registrar los informes de sus investigaciones científicas.

Cada universidad establece las directrices generales que debe seguir un estudiante para obtener el título de doctor, y cada facultad o departamento de una universidad fija los criterios específicos con los que mide el dominio de una materia. Por lo general, para prepararse para el doctorado en un campo determinado, el estudiante debe obtener una licenciatura y un máster (o su equivalente) en ese campo o en un campo estrechamente relacionado. Para demostrar un dominio completo de la materia, es posible que el estudiante deba realizar cursos adicionales de posgrado, mantener una alta media de calificaciones o presentarse a una serie de exámenes especiales. En muchas instituciones, los estudiantes deben hacer las tres cosas.

Dado que los exámenes que se realizan como parte del plan de estudios de un doctorado evalúan conocimientos especializados, son creados y evaluados por un comité de expertos, cada uno de los cuales posee un título de doctor.

Ampliar conocimientos

La esencia de un doctorado, el aspecto que distingue los estudios de doctorado de otros trabajos académicos, puede resumirse en una sola palabra: investigación. Para ampliar el conocimiento, hay que explorar, investigar y contemplar. La comunidad científica utiliza el término investigación para captar esta idea.

En las disciplinas científicas, la investigación suele implicar experimentación, pero la investigación es más que meros experimentos: significa interpretación y comprensión profunda. Para los informáticos, investigar significa buscar para descubrir los principios que subyacen a la computación y la comunicación digitales. Un investigador debe descubrir nuevas técnicas que ayuden a construir o utilizar mecanismos computacionales. Los investigadores buscan nuevas abstracciones, nuevos enfoques, nuevos algoritmos, nuevos principios o nuevos mecanismos.

Para completar un doctorado, cada estudiante debe presentar los resultados de su investigación al profesorado en un documento extenso y formal llamado disertación (más popularmente conocida como tesis). A continuación, el estudiante debe presentar su disertación al profesorado y defender su trabajo en un examen oral.

Relación con los productos

En algunos casos, los resultados de la investigación científica pueden utilizarse para desarrollar nuevos productos o mejorar los ya existentes. Sin embargo, los científicos no utilizan el éxito comercial o los posibles beneficios comerciales como medida de su trabajo; realizan investigaciones para ampliar la comprensión humana y el conjunto de conocimientos que los seres humanos han recopilado. A menudo, los beneficios comerciales de la investigación científica son mucho mayores a largo que a corto plazo.

Actividades de investigación

La investigación en Ciencias de la Computación puede incluir actividades tan diversas como el diseño y la construcción de nuevos sistemas informáticos, la demostración de teoremas matemáticos, la escritura de programas informáticos, la medición del rendimiento de un sistema informático, el uso de herramientas analíticas para evaluar un diseño o el estudio de los errores que cometen los programadores al construir un gran sistema de software. Dado que el investigador elige las actividades apropiadas para responder a cada pregunta que se plantea en una investigación, y dado que surgen nuevas preguntas a medida que avanza la investigación, las actividades de investigación varían de un proyecto a otro y a lo largo del tiempo en un mismo proyecto. Un investigador debe estar preparado para utilizar diversos enfoques y herramientas.

Algunas preguntas

Muchos de ustedes están intentando decidir si cursar un doctorado. He aquí algunas preguntas que podría hacerse.

1. ¿Quiere dedicarse a la investigación?

Antes de matricularse en un programa de doctorado, debe considerar detenidamente sus objetivos a largo plazo. Dado que el doctorado es una formación para la investigación, debe preguntarse si su objetivo a largo plazo es un puesto de investigador. Si lo es, el doctorado es el camino normal hacia la carrera elegida (algunas personas han conseguido un puesto de investigación sin el doctorado, pero son la excepción, no la regla). Si, por el contrario, quieres una carrera no relacionada con la investigación, el doctorado definitivamente no es para ti.

2. ¿Desea un puesto académico?

El doctorado es de facto la "tarjeta de acceso" a un puesto académico. Aunque es posible obtener un puesto académico sin un doctorado, las posibilidades son escasas. Las grandes universidades (y la mayoría de las facultades) exigen que todos los miembros de su profesorado tengan un doctorado y se dediquen a la investigación. ¿Por qué? Para asegurarse de que el profesorado tiene conocimientos suficientes para impartir cursos avanzados y para obligarle a mantenerse al día en el campo que ha elegido. El protocolo diplomático del Departamento de Estado de EE.UU. sitúa el título de "profesor" por encima del de “doctor”. Lo hace en reconocimiento de los requisitos académicos: la mayoría de los catedráticos son doctores, pero no todos los doctores son catedráticos.

3. ¿Tienes lo que hay que tener?

Es difícil para una persona evaluar sus propias capacidades. Las siguientes directrices y preguntas pueden ser de ayuda:

Inteligencia:

En sus cursos universitarios y de posgrado, ¿estuvo más cerca de los primeros de su clase o de los últimos? ¿Qué tal le fue en el GRE u otros exámenes estandarizados?

Tiempo:

¿Está preparado para afrontar un proyecto de mayor envergadura que cualquier otro que haya emprendido antes? Debes comprometerte a trabajar duro durante varios años. ¿Estás dispuesto a reducir o renunciar a otras actividades?

Creatividad:

Los descubrimientos de la investigación suelen surgir cuando se observan hechos antiguos de una forma nueva. ¿Brilla usted cuando resuelve problemas? ¿Le gustan los rompecabezas? ¿Se le da bien resolverlos? En la escuela, ¿le gustaban o le costaban las matemáticas avanzadas?

Curiosidad intensa:

¿Siempre ha sentido la necesidad de entender el mundo que le rodea y averiguar cómo funcionan las cosas? Una curiosidad natural facilita la investigación. ¿Cumplió los requisitos mínimos o exploró más por su cuenta?

Adaptabilidad:

La mayoría de los estudiantes no están preparados para estudiar un doctorado. Les resulta inesperadamente diferente a los cursos. De repente, se ven inmersos en un mundo en el que nadie conoce las respuestas, por lo que a veces fracasan. ¿Puede adaptarse a nuevas formas de pensar? ¿Puede tolerar la búsqueda de respuestas incluso cuando nadie conoce las preguntas precisas?

Automotivación:

Cuando un estudiante termina sus estudios universitarios, ya se ha acostumbrado a recibir las notas de cada asignatura cada semestre. En un programa de doctorado, el trabajo no se divide ordenadamente en cursos separados, los profesores no dividen las tareas en pequeños trabajos y el estudiante no recibe una calificación por cada pequeño paso. ¿Tienes la motivación suficiente para seguir trabajando por un objetivo sin que te animen día a día?

Competitividad:

Si decide matricularse en un programa de doctorado, competirá con otros en la cima. Y lo que es más importante, una vez que se gradúe, entre sus compañeros se encontrarán algunas de las personas más brillantes del mundo. Se le medirá y juzgará en comparación con ellos. ¿Estás dispuesto a competir a nivel de doctorado?

Madurez:

En comparación con los cursos, que están cuidadosamente planificados por un profesor, los estudios de doctorado están menos estructurados. Tendrás más libertad para fijar tus propios objetivos, determinar tu horario diario y seguir ideas interesantes. ¿Está preparado para aceptar la responsabilidad que conllevan estas libertades adicionales? Tu éxito o fracaso en la investigación de doctorado depende de ello.

Algunas advertencias:

A veces, los estudiantes se matriculan en un programa de doctorado por razones equivocadas. Al cabo de un tiempo, se dan cuenta de que los requisitos les abruman. Antes de empezar, hay que darse cuenta de que un doctorado no es:

Prestigioso en sí mismo

Casi todos los que han obtenido un doctorado están orgullosos de sus esfuerzos y del resultado. Sin embargo, debe comprender que, una vez que se gradúe, trabajará entre un grupo de científicos que poseen cada uno un título de doctor. (Un miembro del profesorado solía reprender a los arrogantes estudiantes de posgrado diciéndoles: "No entiendo por qué crees que es un logro tan grande: ¡todos mis amigos tienen un doctorado!").

Una garantía de respeto a todas tus opiniones

Muchos estudiantes creen que, una vez obtenido el doctorado, la gente respetará automáticamente todas sus opiniones. Sin embargo, aprenderás que poca gente asume que un doctorado en una materia te convierte automáticamente en una autoridad sobre los demás. Esto es especialmente cierto en la comunidad científica: el respeto hay que ganárselo.

Un objetivo en sí mismo

Un doctorado te prepara para la investigación. Si lo único que quiere es un diploma para colgar en la pared, hay formas mucho más sencillas de obtenerlo. Cuando se licencie, tendrá ocasión de comparar sus logros con los de otros científicos. Te darás cuenta de que lo que cuenta es el trabajo de investigación acumulado después de que un científico termine su educación formal.

Una garantía de empleo

Cuando una economía se ralentiza, todos pueden verse perjudicados. De hecho, algunas empresas reducen la investigación antes de reducir la producción, lo que hace especialmente vulnerables a los doctores. Además, una vez que una persona obtiene el doctorado, muchas empresas no la contratan para un puesto que no sea de investigación. Como en la mayoría de las profesiones, la continuidad en el empleo depende del rendimiento continuado.

Una forma práctica de impresionar a tu familia o amigos

Puede que tu madre se sienta orgullosa y emocionada cuando te matricules en un programa de doctorado. Al fin y al cabo, se imagina que pronto podrá presumir de su hijo, “el doctor”. Sin embargo, el deseo de impresionar a los demás no es motivación suficiente para el esfuerzo que requiere.

Algo que puedes “intentar” para saber lo listo que eres

Lo siento, pero no funciona así. A menos que te comprometas totalmente, fracasarás. Tendrás que trabajar muchas horas, enfrentarte a muchas decepciones, poner a prueba tus capacidades mentales y aprender a encontrar el orden entre hechos aparentemente caóticos. A menos que haya adoptado el objetivo a largo plazo de convertirse en investigador, las exigencias del día a día le agotarán. Las exigencias te parecerán innecesariamente altas; el rigor, injustificado. Si sólo lo consideras un examen, acabarás abandonando.

El único tema de investigación al que te dedicarás

Muchos estudiantes cometen el error de considerar su tema de doctorado como un área de investigación para toda la vida. Asumen que cada investigador sólo trabaja en un área, siempre persigue el mismo tema dentro de esa área y siempre utiliza las mismas herramientas y enfoques. Los investigadores experimentados saben que surgen nuevas preguntas constantemente y que las antiguas pueden perder interés con el paso del tiempo o el descubrimiento de nuevos hechos. Los mejores cambian de tema y de área. Eso les mantiene frescos y estimula el pensamiento. Prepárate para el cambio.

Más fácil que entrar en el mercado laboral

Después de empezar, el camino hacia el doctorado se vuelve mucho más empinado. El profesorado impone restricciones a su estudio y no permite que los estudiantes improductivos permanezcan en el programa.

Mejor que las alternativas

Para muchos estudiantes, el doctorado puede ser una maldición. Deben elegir entre estar a la cabeza entre los que tienen un máster o ser un investigador mediocre. A veces, los profesores aconsejan a los estudiantes que elijan entre ser "capitán del equipo B" o "jugador de banquillo" en el equipo A. Cada uno debe decidir lo que quiere. Cada uno debe decidir lo que quiere y qué profesión le estimulará más. Pero los estudiantes deben ser realistas sobre sus capacidades. Si realmente no pueden determinar su posición, pregunten a los miembros de la facultad.

Una forma de ganar más dinero

Aunque desde hace un par de años no tenemos estadísticas, los estudiantes de postgrado solían calcular el "sueldo" utilizando los salarios iniciales de los puestos de doctorado y máster, el tiempo medio necesario para obtener un doctorado, el valor de las opciones sobre acciones y el rendimiento actual de las inversiones. Durante un periodo de al menos cinco años que conozcamos, la rentabilidad fue claramente negativa. Baste decir que uno debe elegir la investigación porque le gusta; un doctorado no es el camino óptimo hacia la riqueza.

Las buenas noticias:

A pesar de todas nuestras advertencias, estamos orgullosos de habernos doctorado y de nuestros logros en investigación. Si tiene la capacidad y el interés, la carrera investigadora puede reportarle recompensas inigualables en cualquier otra profesión. Conocerá y trabajará con algunas de las personas más brillantes del planeta. Alcanzará ideas fuera de su alcance y, al hacerlo, ampliará sus capacidades intelectuales. Resolverá problemas que no se han resuelto antes. Explorará conceptos desconocidos hasta ahora. Descubrirás principios que cambiarán la forma de utilizar los ordenadores.

La alegría de investigar:

Un colega resumió la forma en que muchos investigadores sienten su profesión. Cuando le preguntaron por qué pasaba tantas horas en el laboratorio, señaló que las alternativas eran irse a casa, donde haría lo mismo que millones de personas, o trabajar en su laboratorio, donde podría descubrir cosas que ningún otro ser humano había descubierto jamás. La sonrisa de su cara lo decía todo: para él, trabajar en investigación era pura alegría.

By Abner Roa

May 15, 2023

Read post
logo
Datos para un programador C sobre comportamiento indefinido Datos para un programador C sobre comportamiento indefinido CSR

Por Chris Lattner

Original article: blog.llvm.org/2011/05/what-every-c-programmer-should-know.html

May 13, 2011

#optimization , #Clang

La gente de vez en cuando pregunta por qué el código compilado con LLVM a veces genera señales SIGTRAP cuando el optimizador está activado. Después de indagar, encuentran que Clang generó una instrucción "ud2" (suponiendo código X86) - la misma que es generada por __builtin_trap(). Hay varias cuestiones en juego aquí, todas centradas en el comportamiento indefinido en el código C y cómo LLVM lo maneja.

Esta entrada de blog (la primera de una serie de tres) intenta explicar algunos de estos problemas para que puedas entender mejor las compensaciones y complejidades implicadas, y quizás aprender un poco más de los lados oscuros de C. Resulta que C no es un "ensamblador de alto nivel" como a muchos programadores experimentados de C (particularmente gente con un enfoque de bajo nivel) les gusta pensar, y que C++ y Objective-C han heredado directamente un montón de problemas de él.

Introducción al comportamiento indefinido

Tanto el LLVM IR como el lenguaje de programación C tienen el concepto de "comportamiento indefinido". El comportamiento indefinido es un tema amplio con muchos matices. La mejor introducción que he encontrado al respecto es un artículo en el Blog de John Regehr. La versión corta de este excelente artículo es que muchas cosas aparentemente razonables en C en realidad tienen un comportamiento indefinido, y esta es una fuente común de errores en los programas. Más allá de eso, cualquier comportamiento indefinido en C da licencia a la implementación (el compilador y el tiempo de ejecución) para producir código que formatea tu disco duro, hace cosas completamente inesperadas, o cosas peores. De nuevo, recomiendo encarecidamente la lectura del artículo de John.

El comportamiento indefinido existe en los lenguajes basados en C porque los diseñadores de C querían que fuera un lenguaje de programación de bajo nivel extremadamente eficiente. En cambio, lenguajes como Java (y muchos otros lenguajes "seguros") han evitado el comportamiento indefinido porque quieren un comportamiento seguro y reproducible entre implementaciones, y están dispuestos a sacrificar rendimiento para conseguirlo. Aunque ninguno de los dos es "el objetivo correcto al que aspirar", si eres un programador de C realmente deberías entender qué es el comportamiento indefinido.

Antes de entrar en detalles, vale la pena mencionar brevemente lo que se necesita para que un compilador obtenga un buen rendimiento de una amplia gama de aplicaciones C, porque no hay una solución mágica. A un nivel muy alto, los compiladores producen aplicaciones de alto rendimiento a) haciendo un buen trabajo en los algoritmos básicos como la asignación de registros, la programación, etc. b) conociendo montones y montones de "trucos" (por ejemplo, optimizaciones peephole, transformaciones de bucle, etc.), y aplicándolos siempre que sea rentable. c) siendo buenos en la eliminación de abstracciones innecesarias (por ejemplo, redundancia debido a macros en C, funciones inlining, eliminación de objetos temporales en C++, etc.) y d) no arruinando nada. Aunque cualquiera de las optimizaciones siguientes pueda parecer trivial, resulta que ahorrar sólo un ciclo de un bucle crítico puede hacer que algún códec funcione un 10% más rápido o consuma un 10% menos de energía.

Ventajas del Comportamiento Indefinido en C, con Ejemplos

Antes de entrar en el lado oscuro del comportamiento indefinido y la política y el comportamiento de LLVM cuando se utiliza como compilador de C, pensé que sería útil considerar algunos casos específicos de comportamiento indefinido, y hablar de cómo cada uno permite un mejor rendimiento que un lenguaje seguro como Java. Puedes ver esto como "optimizaciones habilitadas" por la clase de comportamiento indefinido o como la "sobrecarga evitada" que se requeriría para hacer cada caso definido. Aunque el optimizador del compilador podría eliminar algunas de estas sobrecargas algunas veces, hacerlo en general (para cada caso) requeriría resolver el problema de detención y muchos otros "retos interesantes".

También vale la pena señalar que tanto Clang como GCC definen algunos comportamientos que el estándar C deja sin definir. Las cosas que voy a describir son a la vez indefinidas según el estándar y tratadas como comportamiento indefinido por ambos compiladores en sus modos por defecto.

Uso de una variable no inicializada: Esto es comúnmente conocido como fuente de problemas en los programas C y existen muchas herramientas para detectarlos: desde advertencias del compilador hasta analizadores estáticos y dinámicos. Esto mejora el rendimiento al no requerir que todas las variables se inicialicen a cero cuando entran en el ámbito (como hace Java). Para la mayoría de las variables escalares, esto causaría poca sobrecarga, pero las matrices de pila y la memoria malloc'd incurrirían en un memset del almacenamiento, lo que podría ser bastante costoso, sobre todo porque el almacenamiento suele sobrescribirse completamente.

Desbordamiento de entero con signo: Si la aritmética en un tipo 'int' (por ejemplo) se desborda, el resultado es indefinido. Un ejemplo es que no se garantiza que "INT_MAX+1" sea INT_MIN. Este comportamiento permite ciertas clases de optimizaciones que son importantes para algunos códigos. Por ejemplo, saber que INT_MAX+1 es indefinido permite optimizar "X+1 > X" a "verdadero". Saber que la multiplicación "no puede" desbordarse (porque hacerlo sería indefinido) permite optimizar "X*2/2" a "X". Aunque esto puede parecer trivial, este tipo de cosas son comúnmente expuestas por inlining y expansión de macros. Una optimización más importante que esto permite es para "<=" bucles como este:

for (i = 0; i <= N; ++i) { ... }

En este bucle, el compilador puede asumir que el bucle iterará exactamente N+1 veces si "i" es indefinido por desbordamiento, lo que permite una amplia gama de optimizaciones de bucle. Por otro lado, si la variable está definida para envolverse en el desbordamiento, entonces el compilador debe asumir que el bucle es posiblemente infinito (lo que ocurre si N es INT_MAX) - lo que deshabilita estas importantes optimizaciones de bucle. Esto afecta particularmente a las plataformas de 64 bits ya que mucho código utiliza "int" como variables de inducción.

Vale la pena señalar que el desbordamiento sin signo está garantizado para ser definido como desbordamiento de complemento a 2 (envolvente), por lo que siempre se pueden utilizar. El coste de definir el desbordamiento de enteros con signo es que este tipo de optimizaciones simplemente se pierden (por ejemplo, un síntoma común es una tonelada de extensiones de signo dentro de bucles en objetivos de 64 bits). Tanto Clang como GCC aceptan la bandera "-fwrapv" que fuerza al compilador a tratar el desbordamiento de enteros con signo como definido (aparte de la división de INT_MIN por -1).

Desbordamiento de cantidades: Desplazar un uint32_t 32 bits o más no está definido. Mi suposición es que esto se originó porque las operaciones de desplazamiento subyacentes en varias CPU hacen cosas diferentes con esto: por ejemplo, X86 trunca la cantidad de desplazamiento de 32 bits a 5 bits (por lo que un desplazamiento de 32 bits es lo mismo que un desplazamiento de 0 bits), pero PowerPC trunca las cantidades de desplazamiento de 32 bits a 6 bits (por lo que un desplazamiento de 32 produce cero). Debido a estas diferencias de hardware, el comportamiento es completamente indefinido por C (por lo tanto, el desplazamiento de 32 bits en PowerPC podría formatear su disco duro, *no* está garantizado que produzca cero). El coste de eliminar este comportamiento indefinido es que el compilador tendría que emitir una operación extra (como una 'y') para los desplazamientos de variables, lo que los haría el doble de caros en CPUs comunes.

Desreferencias de Punteros Salvajes y Accesos a Matrices Fuera de Límites: La desreferenciación de punteros aleatorios (como NULL, punteros a memoria libre, etc) y el caso especial de acceder a un array fuera de límites es un error común en las aplicaciones C que esperemos no necesite explicación. Para eliminar esta fuente de comportamiento indefinido, los accesos a arrays tendrían que ser comprobados por rango, y la ABI tendría que ser cambiada para asegurarse de que la información de rango sigue alrededor de cualquier puntero que pudiera estar sujeto a la aritmética de punteros. Esto tendría un coste extremadamente alto para muchas aplicaciones numéricas y de otro tipo, además de romper la compatibilidad binaria con todas las bibliotecas C existentes.

Desreferenciación de un puntero NULL: contrariamente a la creencia popular, la desreferenciación de un puntero nulo en C no está definida. No está definido para atrapar, y si se mmappea una página en 0, no está definido para acceder a esa página. Esto se sale de las reglas que prohíben la desreferenciación de punteros salvajes y el uso de NULL como centinela. El hecho de que las desreferencias a punteros NULL no estén definidas permite una amplia gama de optimizaciones: por el contrario, Java hace que no sea válido para el compilador mover una operación de efecto secundario a través de cualquier desreferencia a punteros a objetos que el optimizador no pueda probar que no son NULL. Esto penaliza significativamente la programación y otras optimizaciones. En los lenguajes basados en C, la indefinición de NULL permite un gran número de optimizaciones escalares sencillas que quedan expuestas como resultado de la expansión de macros y el inlining.

Si estás usando un compilador basado en LLVM, puedes hacer dereferencia a un puntero nulo "volátil" para obtener un fallo si eso es lo que estás buscando, ya que las cargas y almacenamientos volátiles generalmente no son tocados por el optimizador. Actualmente no existe ninguna bandera que permita que las cargas aleatorias de punteros NULL sean tratadas como accesos válidos o que haga que las cargas aleatorias sepan que su puntero está "autorizado a ser nulo".

Violación de las reglas de tipo: Es un comportamiento indefinido convertir un int* en un float* y desreferenciarlo (accediendo al "int" como si fuera un "float"). C requiere que este tipo de conversiones de tipo se realicen a través de memcpy: usar conversiones de punteros no es correcto y resulta en un comportamiento indefinido. Las reglas para esto son bastante matizadas y no quiero entrar en detalles aquí (hay una excepción para char*, los vectores tienen propiedades especiales, las uniones cambian cosas, etc). Este comportamiento permite un análisis conocido como "Type-Based Alias Analysis" (TBAA) que es utilizado por una amplia gama de optimizaciones de acceso a memoria en el compilador, y puede mejorar significativamente el rendimiento del código generado. Por ejemplo, esta regla permite a clang optimizar esta función:

float *P;
 void matriz_cero() {
   int i;
   for (i = 0; i < 10000; ++i)
     P[i] = 0.0f;
 }

en "memset(P, 0, 40000)". Esta optimización también permite sacar muchas cargas de los bucles, eliminar subexpresiones comunes, etc. Esta clase de comportamiento indefinido puede desactivarse pasando la bandera -fno-strict-aliasing, que desautoriza este análisis. Cuando se pasa esta bandera, Clang se ve obligado a compilar este bucle en 10000 almacenes de 4 bytes (lo que es varias veces más lento), porque tiene que asumir que es posible que cualquiera de los almacenes cambie el valor de P, como en algo como esto:

int main() {
  P = (float*)&P; // la conversión causa una violación TBAA en zero_array.
  zero_array();
}

Este tipo de abuso de tipos es bastante infrecuente, razón por la cual el comité del estándar decidió que las significativas ganancias de rendimiento merecían la pena por el resultado inesperado de los lanzamientos de tipos "razonables". Vale la pena señalar que Java obtiene los beneficios de las optimizaciones basadas en tipos sin estos inconvenientes, ya que no tiene ningún tipo de fundido de punteros inseguro en el lenguaje.

De todos modos, espero que esto te dé una idea de algunas de las clases de optimizaciones permitidas por el comportamiento indefinido en C. Hay muchas otras clases, por supuesto, incluyendo violaciones del punto de secuencia como "foo(i, ++i)", condiciones de carrera en programas multihilo, violar 'restrict', dividir por cero, etc.

En nuestro próximo post, discutiremos por qué el comportamiento indefinido en C es algo bastante aterrador si el rendimiento no es tu único objetivo. En nuestro último post de la serie, hablaremos de cómo lo manejan LLVM y Clang.

Comandos de Expresión Regulares

Lo que Todo Programador de C Debe Saber Sobre el Comportamiento Indefinido #2/3

By Jose Melgarejo

November 27, 2023

Read post
logo
¿Cómo leer un trabajo de investigación? ¿Cómo leer un trabajo de investigación? CSR

Artículo original: https://sites.cc.gatech.edu/fac/Spencer.Rugaber/txt/researchPaper.html

Por: Spencer Rugaber

30 de agosto de 2006 Instituto Tecnológico de Georgia

En una universidad, a menudo se te pide que leas un artículo o documento académico. Aquí hay algunas pautas y preguntas que puedes hacerte mientras lo haces.

  1. Echa un vistazo al libro, Cómo leer un libro (Mortimer J. Adler y Charles Van Doren, Simon and Schuster, 1940). Ofrece muchos consejos útiles para mejorar tus habilidades de lectura.
  2. Es posible que no puedas entender todo el artículo en una sola lectura. En la primera pasada, obtén la idea general, busca cualquier palabra de vocabulario que no entiendas y anota tus preguntas pendientes. Luego haz otra pasada en la que encajes las piezas del rompecabezas.
  3. Identifica la tesis del artículo y exprésala en una oración simple. La tesis es la idea principal que el autor intenta convencerte. A veces es sorprendentemente difícil determinar esto.
  4. Después de leer el artículo, pregúntate si el autor te ha convencido o no de la tesis. Si no, ¿por qué no? ¿Fue defectuosa la lógica? ¿No se proporcionó suficiente evidencia?
  5. Resume explícitamente el argumento del autor. Es decir, escribe los puntos del argumento del autor y las razones dadas para cada punto.
  6. ¿Cuál es el otro lado del tema? A menudo los autores lo indicarán explícitamente, con mayor o menor grado de parcialidad. Incluso si el autor no menciona el otro lado en absoluto, debes intentar resumir el otro lado del argumento. Después de todo, si no hay otro lado, ¿por qué se escribió el artículo en primer lugar?
  7. ¿Hay preguntas que te quedan rondando la cabeza? A menudo, un autor planteará explícitamente "Trabajo futuro" que se puede realizar para dar seguimiento al trabajo presentado. Por el contrario, el autor puede haber pasado por alto algunas preguntas obvias que el artículo dejó sin respuesta.
  8. De manera más general, trata de caracterizar el campo en el que está trabajando el autor. Muchas veces el autor hará esto explícitamente hablando de "Trabajo relacionado". Y un autor minucioso discutirá cómo su trabajo difiere del de cada uno de los competidores del autor.
  9. ¿Cómo valida el autor su trabajo? Es decir, al presentar un caso, un autor debe proporcionar evidencia que lo respalde. Diferentes campos utilizan diferentes tipos de evidencia. Por ejemplo, los matemáticos proporcionan pruebas; los psicólogos hacen experimentos; y los ingenieros a menudo construyen prototipos. Cuidado con los artículos que ofrecen opiniones pero no te dan la evidencia para apoyarlas.
  10. ¿Cuál fue el estilo del autor? Muchos artículos académicos son bastante (excesivamente) secos, simplemente enunciando los hechos con poco adorno. Otros tienen un carácter más tutorial, utilizando el pronombre en segunda persona ("tú") en lugar del impersonal en tercera persona ("él" / "ella" / "eso"). Algunos usan la voz activa, otros la pasiva. Algunos incluso usan una figura retórica ocasional para animar las cosas.
  11. Aquí hay otro libro que podrías mirar (Writing Arguments: A Rhetoric with Readings, John D. Ramage, John C. Bean, and June Johnson, Longman Publishers, 2004). Describe las técnicas que los autores usan (o usan mal) al expresar sus posiciones. Comprender las técnicas que los autores usan en su escritura puede mejorar tu capacidad de lectura...


By Abner Roa

June 22, 2023

Read post
logo
Sobre la Naturaleza de la Teoría de la Gestión Documental Sobre la Naturaleza de la Teoría de la Gestión Documental CSR

Michael Buckland

School of Information Management and Systems, Universidad de California, Berkeley, CA 94720-4600

Esta ponencia fue presentada en la 35ª Conferencia Anual de la Association of Records Management and Administrators y publicada en Proceedings (Prairie village, KS: ARMA, 1990), 801-813, y reimpresa con algunos cambios menores en American Archivist, vol 57 (primavera 1994): 3346-351. Esta versión puede diferir ligeramente de las versiones publicadas.

Resumen: La teoría se define como una visión o descripción de la naturaleza de algo. Se examina la naturaleza de la teoría relacionada con la teoría de la gestión de documentos de archivo, incluyendo la recuperación de información, el ciclo de vida de los documentos de archivo y la política de información. La teoría de la gestión documental no debe considerarse de forma aislada y no tiene por qué ser exclusiva de la gestión documental. Se esbozan, con ejemplos, los contextos funcionales, profesionales y educativos de la teoría de la gestión documental.

Introducción

Existen diversas opiniones sobre la teoría de la gestión documental:

  1. Que existe una teoría bien definida y establecida que rige la práctica de la gestión de archivos;
  2. Que no existe una teoría que guíe la práctica de la gestión de archivos;
  3. Que existen varias teorías que sustentan la práctica de la gestión documental, pero pertenecen a disciplinas o ciencias afines y se utilizan siempre que se manifiesta la necesidad de una acción basada en principios.

En este documento, argumentaremos que ninguna de las anteriores es correcta. En su lugar, sugerimos que (i) existe un cuerpo de teoría de la gestión documental que aún no ha sido bien formulado; (ii) partes de esta teoría son y serán cada vez más compartidas con otros campos; y (iii) gran parte de ella es, quizás, aún no debidamente reconocida como teoría. Pero primero tenemos que aclarar nuestros términos. En concreto, antes de abordar la pregunta "¿Existe una teoría de la gestión documental?" o, mejor, "¿Qué es la teoría de la gestión documental?", es necesario abordar la pregunta previa "¿Qué es la teoría?" si no queremos perder el tiempo.

¿Qué es la "teoría"?

El significado original y el sentido subyacente de la palabra "teoría" es una visión o perspectiva de algo. En sus orígenes, la palabra "teoría" está relacionada con la palabra "teatro" (Oxford English Dictionary 1989, v. 7, p. 902). En términos más generales, teoría es la visión o descripción que alguien tiene de la naturaleza de algo. En este sentido general hay teoría de cualquier cosa cuya naturaleza se pueda describir.

Uno de los problemas es que la discusión inteligente de la teoría en la mayoría de las áreas se ha visto desviada por el gran prestigio social de las ciencias matemáticas y experimentales, especialmente desde la Segunda Guerra Mundial. La lógica y la física son inusuales en el sentido de que si uno tiene una opinión sobre la naturaleza de algún aspecto de ellas, generalmente puede expresar su punto de vista (su teoría) de tal manera que pueda ser probada experimentalmente y, tal vez, se descubra que es inadecuada. Encontrar pruebas que apoyen las teorías es relativamente fácil y de utilidad limitada. El esfuerzo de buena fe por refutar las teorías es básico para progresar. Por lo tanto, en estas disciplinas se suele esperar que las teorías puedan enunciarse de forma rigurosa y que puedan ponerse a prueba tratando de refutarlas. (Normalmente, una teoría es una hipótesis o combinación de hipótesis que ha resistido algunas pruebas).

Por desgracia, la gente ha asumido que las actividades que no son ciencias "duras" también deben utilizar el mismo sentido restringido y especializado de teoría. Cuando buscan este tipo de teoría rigurosa y de refutación en el desordenado mundo de las actividades humanas, como la prestación y el uso de servicios de información, no encuentran ninguna -¡como era de esperar!- y esta estrecha idea preconcebida con la teoría rigurosa y formal les disuade de fijarse en la teoría adecuada al tema. (Para un ejemplo de búsqueda infructuosa y mal formulada de teoría, véase Boyce y Kraft 1985). Aristóteles lo sabía mejor: "Es una marca del hombre educado y una prueba de su cultura que en cada tema busque sólo tanta precisión como permita su naturaleza". (Aristóteles 1955, 27-28)

No debería existir una dicotomía rígida entre "teoría" y "práctica", ya que en ambas subyace una cierta visión de lo que está en juego (en realidad, teoría). No obstante, el profesional reflexivo de la gestión documental, al igual que en otros campos útiles, se enfrenta por lo general a la disyuntiva de elegir entre una teoría formal, rigurosa y "respetable", que parece divorciada de las desordenadas realidades cotidianas, y una "teoría" menos formal que refleja, más o menos, la desordenada realidad que se encuentra en la práctica, pero que no se parece mucho a la teoría (Schon 1983, 42-45). El reto para los reflexivos, y especialmente para los académicos, es tratar de salvar la distancia: Elaborar teorías formales que sean más realistas y desarrollar puntos de vista realistas que se enmarquen en términos de principios generales.

¿Hasta qué punto es trivial la gestión de archivos?

Una vez que nos alejamos del absurdo de suponer que la teoría de la gestión de archivos debe tener las características de la teoría de una ciencia formal, la cuestión cambia de si existe una teoría a sobre qué estamos teorizando. Dicho más claramente: ¿Hasta qué punto es trivial o compleja la gestión documental?

Si consideráramos que la gestión documental consiste únicamente en numerar, archivar, buscar y volver a archivar trozos de papel, entonces nuestra visión de la misma -nuestra teoría- también sería bastante trivial. Por muy valiosa que sea esa actividad desde el punto de vista económico, es probable que la teoría no sea muy interesante.

Pero si consideramos la gestión documental como la gestión del acceso a los documentos de trabajo de una organización, entonces surgen algunos aspectos más complejos de los que mencionaré tres ejemplos:

1. Recuperación de información. Buscar la orden de compra nº 1234 es sencillo, basta con buscar su ubicación y transportarla físicamente. Pero, ¿cómo identificar qué registros existen que satisfagan alguna necesidad mal definida? ¿Qué pasa con todos los documentos relacionados con las actividades de una empresa que podrían interpretarse como prueba de discriminación? ¿Cómo encuentra una universidad los documentos que podrían demostrar sus contribuciones al bienestar de la industria local?

La recuperación de información puede incluir hasta tres funciones: (i) obtener físicamente una copia de un documento; (ii) localizar dónde se encuentra actualmente algún documento conocido; e (iii) identificar qué documentos, si los hay, se ajustan a alguna descripción. Las series de documentos están bien definidas, pero es probable que se necesiten más. Se entra en el amplio y complejo campo de la indización, la clasificación, los tesauros, los diccionarios de datos, etc.

2. El ciclo de vida de los registros. Cualquier tipo de servicio de gestión documental puede ser más eficaz y rentable si el gestor se implica en el ciclo de vida completo de los documentos de archivo. Pero la implicación en el ciclo completo conlleva la participación en una amplia variedad de cuestiones: diseño y gestión de formularios, factores humanos y flujo de trabajo, calendarios de conservación y valoración para la retención archivística, tecnología de la información y protección de registros vitales.

3. Política de información. ¿Qué (y quién) determina quién debe y quién no debe tener acceso a los documentos de archivo? Se trata de cuestiones jurídicas y éticas derivadas de la legislación sobre libertad de información y privacidad, secretos comerciales, etcétera. Estas cuestiones son complicadas, contradictorias y de gran importancia, sobre todo para la gestión de archivos en el sector público. Por ejemplo, ¿debe el público tener acceso a algunos o todos los expedientes personales de los funcionarios públicos o tienen prioridad los derechos a la intimidad de dichos funcionarios? ¿Cuándo y por qué motivos pueden mantenerse confidenciales los borradores de documentos de trabajo?

Estos tres ejemplos (recuperación de la información, diseño del ciclo de vida de los documentos de archivo y políticas de información) bastan para indicar que, si se considera que la gestión de documentos de archivo tiene que ver en general con el acceso a los documentos de trabajo de una organización, es difícil no ver la naturaleza del campo como práctica y conceptualmente complicada, como real o potencialmente rica en teorías de un tipo u otro.

La ciencia del avestruz: o ¿qué tiene de particular la gestión documental?

Otro problema de la teoría en la práctica profesional es el deseo de identificar una teoría o ciencia que sea exclusiva de esa ocupación. También esto es imprudente.

Las cuestiones y principios sobre quién debe tener acceso a los documentos de archivo son tanto una cuestión legal como de gestión documental. El concepto de ciclo de vida es común tanto a los archivos como a la gestión documental. Los esquemas de indexación y clasificación también conciernen a la biblioteconomía, la museología, la gestión de bases de datos y otros ámbitos. ¿Es importante? Sí, tiene una importancia positiva porque es beneficioso que otros grupos profesionales también tengan interés en abordar los mismos problemas o problemas relacionados. Lo que se necesita es comunicación y colaboración, no un aislamiento profesional autoimpuesto.

Yo no consideraría que facilitar el acceso a los archivos de una organización carezca de importancia o sea fácil. El prestigio y el respeto vienen de hacer bien una tarea difícil e importante, no de insistir en que uno no es archivero, ni bibliotecario, ni lo que sea. Definir el ámbito de la gestión de documentos de archivo implica también definir qué tipo de teoría sería pertinente. Cuantas más ideas puedan derivarse de otros campos, mejor será el servicio de gestión documental.

Pensemos en un científico que estudia un avestruz. Sin duda, el estudio de los avestruces requiere mucha teoría. Sin embargo, dudo que sea algo exclusivo de los avestruces. Más bien deberíamos esperar formas variantes o casos especiales de teorías también relevantes para otras aves y/u otros animales del mismo hábitat. Uno puede ser un científico del avestruz, pero desconfíe de quien insista en que existe una Ciencia del Avestruz que de algún modo está separada y es independiente de otras disciplinas. Puede que alguien tenga la cabeza en la arena.

Contextos teóricos de la teoría de la gestión documental.

Por "contexto teórico" entendemos un ámbito teórico más amplio en el que encaja la teoría de la gestión documental. Puede haber muchos contextos teóricos. Mencionaremos sólo tres.

1. Contexto funcional. La gestión documental está al servicio de una empresa u otra organización. Por tanto, la misión de un servicio de gestión documental debe estar relacionada con la misión de la organización en su conjunto y apoyarla. La función del programa de gestión documental debe articularse con las funciones de otras partes de la organización: las funciones, necesidades y actividades de los empleados que necesitan acceder a los documentos de archivo; las funciones de otros programas relacionados con la información, como los sistemas de gestión de la información, el procesamiento de datos, la biblioteca y los archivos. En otras palabras, es probable que la teoría de la gestión documental resulte estéril o incompleta si no se relaciona con una visión de la organización en su conjunto. Se trata de algo más que curiosidad académica. Si vamos a afirmar que el papel de la gestión documental es importante, entonces necesitamos tener puntos de vista sobre cómo un buen programa de gestión documental contribuye y apoya la eficacia de la organización.

2. Contexto profesional. La gestión documental puede considerarse un miembro de una familia de sistemas de información basados en la recuperación. No es lo mismo un italiano que un británico, pero ambos son europeos y comparten algunas cosas en común como europeos. Los archivos, las bibliotecas, los programas de gestión documental y las bases de datos corporativas no son lo mismo, pero todos ellos son servicios de información basados en la recuperación y, por tanto, tienen algunas características en común, así como diferencias que los hacen singularmente distintos (Buckland 1982, 1991).

Considerar la gestión documental como miembro de una familia de sistemas de información basados en la recuperación no es algo nuevo. Este punto de vista se adoptó en el movimiento de la "Documentación" a principios de este siglo, especialmente en los escritos de Paul Otlet (1868-1944) (Rayward 1976, 1986). Lo que hoy llamamos gestión de archivos, Otlet lo denominaba "documentación administrativa" y lo consideraba una especialidad importante de la administración. También incluía en la documentación administrativa lo que hoy llamamos Sistemas de Información de Gestión. Otlet escribió varios artículos sobre el tema y sus ideas se aplicaron de forma limitada en Europa (Otlet 1923, 1930, 1934, 350-55; Rayward 1976, 160, 184).

Otlet consideraba que los archivos, la bibliografía, las bibliotecas, los museos y la gestión documental formaban parte del amplio campo de la "Documentación" o "Documentación General" o, como diríamos hoy en día, de la gestión de los recursos de información. En 1923 escribió, un tanto prematuramente, que la documentación administrativa era una rama de la "documentación general", que nacía de la convergencia y luego la fusión de la bibliografía, la administración de archivos e incluso la museología (Otlet 1923, 13).

Otlet fue una figura importante en su época, pero en la actualidad es poco conocido. Sus escritos sólo empiezan a aparecer ahora en inglés (Otlet 1990). Sin embargo, la idea de que la gestión de documentos de archivo (y otros tipos de servicios de información) puede resultar beneficiosa desde el punto de vista teórico y práctico como parte de una familia de profesiones relacionadas con la información y de adoptar un enfoque comparativo ha recibido atención recientemente en Norteamérica (Seibell 1987; Pemberton & Prentice 1990; Buckland, 1991).

3. Contexto intelectual. Otro tipo de contexto es el que podría denominarse "contexto intelectual". ¿De dónde proceden las ideas sobre gestión de archivos y adónde han ido a parar? Dos ejemplos pueden ilustrar este punto. Una de las fuentes de las ideas sobre gestión documental es la teoría archivística. Posner (1940) se burlaba de los archiveros por su afición a buscar sus raíces en la antigua Asiria. Tal vez esa antigua actividad archivística se describa con más precisión como gestión de documentos de archivo antiguos (Walker 1989). El profesor Duranti ha resumido recientemente ese aspecto de la ascendencia intelectual de los gestores de documentos (Duranti 1989).

En la otra dirección, es menos conocido que las ideas actuales de moda en informática sobre el hipertexto y los hipermedios tienen parte de sus raíces en la gestión de documentos de archivo. Una inspiración importante en ese campo ha sido el ensayo visionario "As we may think" de Vannevar Bush (1945). Esta fantasía, redactada en 1939, se basaba en su experiencia con un proyecto financiado por Eastman Kodak y National Cash Register para desarrollar un método más rápido de recuperación de registros comerciales microfilmados utilizando una máquina conocida como "selector rápido". Los selectores rápidos eran básicamente una versión preinformática de la recuperación asistida por ordenador (CAR) en la que las entradas del índice se registraban como patrones en el propio microfilm junto a las imágenes de los documentos. Las entradas del índice se buscaban utilizando una célula fotoeléctrica para detectar coincidencias entre el patrón de índice buscado y los patrones de índice del microfilm. La tecnología del selector rápido fue desarrollada inicialmente a finales de la década de 1920 por Zeiss Ikon en Alemania y más tarde, de los años 30 a los 60, en EE.UU., normalmente para ayudar a localizar y recuperar registros corporativos microfilmados o informes técnicos (Goldberg, 1992; Buckland, 1992; Alexander & Rose, 1964; Stevens, 1968).

Comparación

No se llega muy lejos intentando definir y describir las cosas en sus propios términos. La comparación es la actividad intelectual más básica. Comparar la naturaleza de la gestión documental con otras cosas es una condición necesaria para progresar en el desarrollo de una visión -una teoría- de la gestión documental. Para comprender mejor la gestión de documentos de archivo debemos prestar más atención a la comparación de la gestión de documentos de archivo con otras actividades afines. Sólo mediante un conocimiento profundo de las semejanzas y desemejanzas podemos esperar desarrollar una comprensión profunda de la naturaleza -una teoría- de la gestión de archivos.

Resumen

  1. Una teoría es una visión de la naturaleza de algo.
  2. La teoría no debe ser más formal de lo que permita la naturaleza de los fenómenos que debe describir. Las teorías excesivamente formalizadas dejan de describir la realidad de forma útil.
  3. Cualquier visión de la gestión documental como algo más que el archivo y la búsqueda de documentos proporcionará una base para una teoría no trivial.
  4. Es probable que pocas partes de la teoría de la gestión de archivos sean exclusivas de la gestión de archivos, aunque sí lo serán su aplicación detallada y su combinación global. La teoría compartida es ventajosa porque significa que otros comparten la motivación de buscar una mejor comprensión.
  5. La gestión documental puede considerarse en relación con diferentes contextos, por ejemplo, funcional, profesional, intelectual. Cada uno de estos contextos más amplios genera un cuerpo teórico o una oportunidad para desarrollarlo.

Referencias

Alexander, S. N. and F. C. Rose. 1964. The Current Status of Graphic Storage Techniques: Their Potential Application to Library Mechanization. In: Libraries and Automation. Proceeding of the Conference on Libraries and Automation, Warrenton, 1963, ed. by B. E. Markuson. (Washington, DC: Library of Congress, 1964), 111-140.

Aristotle. 1955. The Ethics of Aristotle: The Nichomachean Ethics Translated. (Harmondsworth, UK: Penguin).

Boyce, Bert R. and Donald H. Kraft. 1985. Principles and Theories in Information Science. Annual Review of Information Science and Technology 20:153-78.

Buckland, Michael. 1982. Records Management in its Intellectual Context: Experience at Berkeley. ARMA Quarterly 16:26-28, 30.

Buckland, Michael. 1991. Information and Information Systems. (New York: Praeger).

Buckland, Michael. 1992. Emanuel Goldberg, Electronic Document Retrieval, and Vannevar Bush's Memex. Journal of the American Society for Information Science 43 (May 1992): 284-294.

Bush, Vannevar. 1945. As We may Think. Atlantic Monthly 176:101-106.

Duranti, L. 1989. The Odyssey of Records Management. ARMA Quarterly 23, no. 3 (July 1989): 3-11 and no. 4 (Oct. 1989):3-11.

Goldberg, Emanuel. 1932, 1992. The Retrieval Problem in Photography (1932). Transl. and notes by M. Buckland. Journal of the American Society for Information Science 43 (May 1992): 295-298.

Otlet, Paul. 1923. Manuel de documentation administrative. (IIB publ. 137). (Brussels: Institut International de Bibliographie).

Otlet, Paul. 1930. Sur les possibilités pour les entités administratives d'avoir à tout moment leur situation présentée documentairement. (IIB Publ. 162). (Brussels: Institut International de Bibliographie).

Otlet, Paul. 1934. Traité de documentation. (Brussels: Editiones Mundaneum, 1934. Reprinted Liège, Belgium: Centre de Lecture Publique de la Communauté Française, 1989).

Otlet, Paul. 1990. International Organization and Dissemination of Knowledge: Selected Essays. Transl. and ed. by W. B. Rayward. (FID 684). (Amsterdam: Elsevier).

Oxford English Dictionary. 1989. 2nd ed. (Oxford: Clarendon Press), v. 7, p. 902.

Pemberton, J. Michael and Ann Prentice, eds. 1990. Information Science: The Interdisciplinary Context. (New York: Neal-Schuman).

Posner, E. 1940. Some Aspects of Archival Development since the French Revolution. American Archivist 3 (July 1940):159-172. Reprinted in M. F. Daniels and T. Walch, eds. 1984. A Modern Archives Reader. (Washington, DC: National Archives and Records Service), 3-14.

Rayward,W. Boyd. 1976. The Universe of Information: The Work of Paul Otlet for Documentation and International Organization. (FID 520). (Moscow: VINITI).

Rayward, W. Boyd. 1986. Otlet, Paul-Marie-Ghislain. In: ALA World Encyclopedia of Library and Information Sciences. 2nd ed. (Chicago: American Library Association), 626-28.

Schon, Donald A. 1983. The Reflective Practitioner: How Professionals Think in Action. (New York: Basic Books), 42-45.

Seibell, C. S. 1987. Records Management in its Intellectual Context. Records Management Quarterly 21:3-14, 42 & 49.

Stevens, G. W. W. 1968. Microphotography: Photography and Photofabrication at Extreme Resolution. 2nd ed. (New York: Wiley).

Walker, B. 1989. Records Managers and Archivists: A Survey of Roles. Records Management Quarterly 23 (1989):18-20, 45 & 49.

Original article: people.ischool.berkeley.edu/~buckland/rmtheory.html

By Jose Melgarejo

July 27, 2023

Read post
logo
¿Qué es la ciencia computacional? ¿Qué es la ciencia computacional? CSR

La ciencia computacional es hacer ciencia a través de la computación. Se ha convertido en el tercer modo de investigación científica, complementario de la teoría y el experimento. Gracias a los enormes avances en potencia de cálculo, ahora es posible simular computacionalmente procesos cada vez más complicados y realistas.

El diseño, la creación de prototipos, la optimización y el control de procesos tecnológicos dependen de una comprensión fundamental de los fenómenos implicados, sus interacciones y su sensibilidad a los parámetros. Estos fenómenos pueden estudiarse muy eficazmente mediante simulaciones por ordenador basadas en modelos matemáticos que expresan principios físicos.

  • Modelización: El primer paso es la "matematización" del proceso, es decir, el desarrollo de un modelo matemático del proceso físico. Suele ser, con mucho, la más difícil.
  • Análisis: A continuación, puede utilizarse todo el arsenal de herramientas matemáticas para analizar y comprender las propiedades básicas del modelo matemático e intentar predecir su comportamiento. Aquí es donde cobran importancia las cuestiones teóricas (existencia, unicidad, estabilidad de las soluciones), que a menudo generan problemas desafiantes para la investigación matemática teórica.
  • A continuación entra en juego la Computación Científica, que desarrolla métodos numéricos apropiados y eficaces para el problema matemático.
  • Programación: Los algoritmos se implementan en un lenguaje informático de alto nivel (Fortran, C, C++).
  • Verificación: El código informático se prueba exhaustivamente en problemas/procesos con solución/comportamiento conocidos. Se corrigen los errores y el código se prueba una y otra vez.
  • Optimización: El código informático se optimiza para aumentar su robustez, estabilidad y eficacia.
  • Paralelización: Los problemas realistas suelen ser muy exigentes desde el punto de vista computacional, por lo que es necesario paralelizar el código para que se ejecute simultáneamente en clusters de multiprocesadores y/o en muchos ordenadores conectados en red.
  • Validación: El último paso crucial es la validación del modelo mediante la simulación de un proceso y la comparación de los resultados de las simulaciones numéricas con las mediciones experimentales. Esto puede requerir varias iteraciones de todos los pasos anteriores.

Original article: https://web.math.utk.edu/~vasili/va/descr/

By Abner Roa

June 12, 2023

Read post
logo
Mecanismos de acción y resistencia en fármacos antipalúdicos Mecanismos de acción y resistencia en fármacos antipalúdicos CSR

La quimioterapia es el principal medio de tratamiento de las infecciones por protozoos. El éxito de la quimioterapia depende en gran medida de la capacidad de aprovechar las diferencias metabólicas entre el patógeno y el huésped. Un problema al que se enfrenta la quimioterapia es la capacidad del patógeno para mutar y volverse resistente a los fármacos. A continuación se exponen ejemplos concretos de mecanismos de acción y resistencia a los fármacos.

Índice:

  • Acción del fármaco
  • La cloroquina y la vacuola alimentaria
  • Antifolatos
  • Fármacos que implican mecanismos redox
  • Resistencia a los fármacos
  • Cloroquina
  • Otros enlaces

Acción de los fármacos

Los fármacos actúan interfiriendo específicamente en procesos celulares o bioquímicos, a menudo denominados "dianas". El ejemplo clásico de diana farmacológica es una enzima inhibida por el fármaco. Los fármacos eficaces mostrarán una toxicidad selectiva para el patógeno en comparación con el huésped. Muchos factores contribuyen a esta toxicidad selectiva (recuadro) y estos factores no se excluyen mutuamente. El diseño racional de fármacos trata de explotar estos diversos factores para desarrollar fármacos que sean altamente tóxicos para el patógeno y, al mismo tiempo, presenten una toxicidad mínima para el huésped.

Mecanismos de Acción

La cloroquina y la vacuola alimentaria

La vacuola alimentaria es un orgánulo similar al lisosoma en el que se produce la descomposición de la hemoglobina y la desintoxicación del hemo (véase un análisis más detallado de la vacuola alimentaria). La cloroquina se concentra hasta 1000 veces en la vacuola alimentaria del parásito. Los posibles mecanismos de esta acumulación selectiva de cloroquina en la vacuola alimentaria son: 1) protonación y atrapamiento iónico de la cloroquina debido al bajo pH de la vacuola alimentaria; 2) captación activa de la cloroquina por uno o varios transportadores del parásito; y/o 3) unión de la cloroquina a un receptor específico en la vacuola alimentaria.

La contribución exacta de estos tres mecanismos postulados no está clara, pero en general se acepta que la cloroquina ejerce su efecto tóxico interfiriendo en la conversión del hemo libre en hemozoína. Se liberan grandes cantidades de hemo como resultado de la digestión de la hemoglobina en la vacuola alimentaria. El hemo libre puede lisar las membranas, conducir a la generación de intermediarios reactivos del oxígeno e inhibir muchos otros procesos, por lo que es bastante tóxico. El hemo se desintoxica en la vacuola alimentaria mediante un proceso de biocristalización en el que el hemo se secuestra en grandes cristales insolubles llamados hemozoína o pigmento de la malaria. [Ver descripción más detallada de la formación de hemozoína]. Se desconoce el mecanismo exacto por el que la cloroquina inhibe la formación de hemozoína, pero la cloroquina puede unirse al hemo y esta unión puede impedir que el hemo se incorpore al cristal de hemozoína. Por lo tanto, la muerte del parásito es el resultado de la acumulación de desechos metabólicos (es decir, hemo) asociados a la digestión de la hemoglobina.

Mecanismos de Acción

La cloroquina (CQ) se acumula en la vacuola alimentaria del parásito. Esta acumulación puede implicar el atrapamiento de iones tras la protonación, el transporte específico y/o la unión a un receptor (por ejemplo, el hemo). La principal acción de la cloroquina es inhibir la formación de hemozoína (Hz) a partir del hemo liberado por la digestión de la hemoglobina (Hb). El hemo libre lisaría entonces las membranas y provocaría la muerte del parásito. La resistencia a la cloroquina se debe a una menor acumulación de cloroquina en la vacuola alimentaria. Dos transportadores diferentes (CRT y MDR1) han sido implicados en la resistencia. Se desconocen las funciones de estos transportadores y su papel exacto en la resistencia a la cloroquina.

Otros antipalúdicos que contienen quinolina, como la mefloquina y la quinina, también parecen afectar a la vacuola alimentaria. Sin embargo, no está claro si estos fármacos se unen al hemo o afectan a la formación de hemozoína. Además, estos fármacos son bases más débiles que la coroquina y es posible que no presenten el mismo grado de captura de iones dentro de la vacuola alimentaria.

La vacuola alimentaria ofrece muchas dianas farmacológicas potenciales. Además de la inhibición de la formación de hemozoína comentada anteriormente, también se están investigando inhibidores específicos de las proteasas implicadas en la digestión de la hemoglobina como posibles antimaláricos.[Ver discusión más detallada sobre las proteasas de la vacuola alimentaria]. Las funciones especializadas de digestión de la hemoglobina y formación de hemozoína son exclusivas del parásito y no se encuentran en el hospedador. Además, ambas funciones (generación de aminoácidos a partir de la hemoglobina y desintoxicación del hemo) son muy importantes para el parásito.

Antifolatos

El metabolismo del folato es el objetivo de varios antipalúdicos, así como de fármacos utilizados contra otros patógenos. Los folatos reducidos sirven como cofactores en muchas reacciones de transferencia de un carbono implicadas en la biosíntesis de aminoácidos y nucleótidos (véase más sobre vitaminas y cofactores). Debido a su elevada tasa de replicación, el parásito de la malaria tiene una gran demanda de nucleótidos como precursores para la síntesis de ADN (véase más sobre nucleótidos y ácidos nucleicos), por lo que es especialmente sensible a los antifolatos. Las dos dianas principales del metabolismo antifolato son la biosíntesis de novo de folatos y la dihidrofolato reductasa (DHFR).

El parásito de la malaria sintetiza folatos de novo, mientras que el huésped humano debe obtener folatos preformados y no puede sintetizarlos. La incapacidad del parásito para utilizar folatos exógenos convierte la biosíntesis del folato en una buena diana farmacológica. El folato se sintetiza a partir de 3 componentes básicos, GTP, ácido p-aminobenzoico (pABA) y glutamato, en una vía en la que intervienen 5 enzimas. Una de estas enzimas, la dihidropteroato sintasa (DHPS), es inhibida por los medicamentos a base de sulfamidas. La sulfadoxina y la dapsona son dos antipalúdicos comunes que actúan sobre la DHPS. Las sulfamidas son análogos estructurales del pABA y la DHPS los convierte en aductos no metabolizables. Esto conduce a un agotamiento de la reserva de folato y por lo tanto reduce la cantidad de timidilato disponible para la síntesis de ADN.

Mecanismos de Acción

Esquema simplificado del metabolismo del folato. El parásito de la malaria sintetiza folatos de novo, pero no puede utilizar folatos preformados. Los folatos participan como cofactores en muchos procesos biosintéticos. Cabe destacar la síntesis de timidilato (dTMP), necesario para la síntesis del ADN. Las dos dianas principales de los fármacos antipalúdicos que actúan sobre el metabolismo de los folatos se indican con flechas en recuadro.

La DHFR es una enzima ubicua que participa en el reciclaje de los folatos reduciendo el dihidrofolato a tetrahidrofolato. A continuación, el tetrahidrofolato se oxida de nuevo a dihidrofolato al participar en reacciones biosintéticas (por ejemplo, timidilato sintasa). La inhibición de la DHFR impedirá la formación de timidilato y provocará la detención de la síntesis de ADN y la posterior muerte del parásito. La pirimetamina y el proguanil son los dos inhibidores de la DHFR más utilizados como antipalúdicos. Estos fármacos inhiben la DHFR del parásito en mayor medida que la enzima del huésped, por lo que muestran una toxicidad selectiva hacia el parásito.

En la mayoría de los casos, los inhibidores de la DHPS y la DHFR se utilizan en combinación (Tabla) para obtener un efecto sinérgico y frenar el desarrollo de farmacorresistencia. Las mutaciones puntuales específicas de estas enzimas provocan una menor afinidad por los fármacos. La resistencia tiende a desarrollarse rápidamente en presencia de presión farmacológica en situaciones en las que una sola mutación puede provocar resistencia a los fármacos. El uso de combinaciones de fármacos ralentizará el desarrollo de resistencia, ya que deben producirse dos mutaciones independientes para que se desarrolle resistencia contra ambos fármacos. Fansidar, una combinación de sulfadoxina y pirimetamina, se utiliza ampliamente para el tratamiento de la malaria falciparum no complicada. La trimetoprima, similar a la pirimetamina, suele utilizarse en combinación con otras sulfamidas para el tratamiento de coccidios (Toxoplasma, Cyclospora e Isospora) y Pneumocystis.

Mecanismos de AcciónFármacos que Implican Mecanismos Redox

Se cree que varios fármacos antiprotozoarios actúan a través del estrés oxidativo (Tabla). Los procesos metabólicos producen intermediarios reactivos del oxígeno (ROI) que pueden dañar componentes celulares como lípidos, proteínas y ácidos nucleicos (véase la revisión sobre estrés oxidativo). La alta actividad metabólica de la mayoría de los patógenos protozoarios dará lugar a la producción de niveles aún más altos de ROI. Este es el caso del parásito de la malaria, que produce ROI como consecuencia de la digestión de la hemoglobina y la liberación de hemo libre. [Véase una descripción más detallada del hemo y la ROI].

Todas las células tienen mecanismos mediante los cuales se puede desintoxicar la ROI (p. ej., metabolismo redox). Los fármacos que aumentan específicamente los niveles de estrés oxidativo en el parásito pueden sobrecargar estos mecanismos de defensa de la ROI y provocar la muerte del parásito. Los niveles de estrés oxidativo pueden ser aumentados por fármacos que son oxidantes directos, así como por fármacos que participaron en el ciclo de oxidación-reducción, a veces llamado ciclo redox fútil.

Mecanismos de Acción

Muchos de los fármacos que participan en las reacciones redox necesitan ser activados antes de ser eficaces contra su(s) diana(s). Por ejemplo, el metronidazol y otros nitroimidazoles son fármacos de amplio espectro que afectan a una gran variedad de bacterias anerobias y protozoos. Estos fármacos se activan mediante la reducción del grupo nitro a un radical aniónico. El radical aniónico es muy reactivo y forma adyuvantes con las proteínas y el ADN, lo que provoca una pérdida de función. En particular, las reacciones con el ADN provocan la rotura de la cadena y la inhibición de la replicación, lo que conduce a la muerte celular. La reducción de los nitroimidazoles requiere fuertes condiciones reductoras y los organismos anaerobios tienen más potencial reductor que los aerobios. Esto explica la selectividad de estos compuestos para los organismos anaerobios. En otras palabras, los fármacos son activados preferentemente por los patógenos.
En el caso del metronidazol, la ferredoxina reducida parece ser el principal donante de electrones responsable de su reducción (Figura). Existe una buena correlación entre la presencia de la piruvato-ferredoxina oxidorreductasa (PFOR) y la sensibilidad al metronidazol. Los tres protozoos afectados por el metronidazol (Tabla) carecen de mitocondrias y tienen una PFOR similar a la que se encuentra en muchas bacterias anaerobias. Los organismos aerobios con mitocondrias utilizan la piruvato deshidrogenasa en lugar del PFOR para la producción de acetil-coenzima A.Mecanismos de Acción

Acciones de los nitroimidazoles. Los nitroimidazoles (R-NO2) son activados por el parásito mediante una reducción a un radical aniónico. Este radical aniónico altamente reactivo daña el ADN y las proteínas, provocando la muerte del parásito. El metronidazol parece ser reducido específicamente por la ferredoxina en Giaridia, Entamoeba y Trichomonas. Los organismos aerobios utilizarían otros donantes de electrones para la reducción de los nitroimidazoles y también existiría la posibilidad de establecer ciclos fútiles que llevarían a la generación de ROI en los que el oxígeno es el aceptor final de electrones. Normalmente las NAD oxidorreductasas llevan a cabo ciclos redox siendo el agua el producto final.
Los nitroimidazoles (p. ej., benznidizol) y los compuestos nitrofuránicos relacionados (p. ej., nifurtimox) también son eficaces contra Trypanosoma cruzi. Se desconocen los donantes de electrones responsables de la reducción inicial de estos fármacos y no está clara la base de la especificidad para el parásito. Ambos fármacos son algo tóxicos y no presentan buenos índices terapéuticos. Se cree que el mecanismo de acción del nifurtimox implica ciclos redox inútiles tras su reducción, mientras que se especula que el benznidizol inhibe reductasas específicas y, por tanto, disminuye la capacidad del parásito para eliminar ROI.Mecanismos de AcciónFarmacorresistencia
La aparición de farmacorresistencia limita gravemente el arsenal de fármacos disponibles contra los patógenos protozoarios. Los parásitos han desarrollado numerosas formas de superar la toxicidad de los fármacos (recuadro). Muy a menudo, la farmacorresistencia implica mutaciones en la diana del fármaco, de modo que éste no se une o inhibe tan bien la diana. La farmacorresistencia puede desarrollarse rápidamente en situaciones en las que una única mutación puntual puede conferir resistencia. Otro mecanismo de resistencia implica la expresión de niveles más altos de la diana. Esto puede lograrse mediante un aumento de la transcripción y la traducción o la amplificación del gen. El resultado es la necesidad de niveles más altos de fármacos para lograr el mismo nivel de inhibición. La disminución de la acumulación del fármaco o su metabolización en productos no tóxicos hará que llegue menos fármaco a la diana y también puede contribuir a la farmacorresistencia. La farmacorresistencia también puede implicar la acumulación de mutaciones en la misma diana o en dianas diferentes que tendrán efectos aditivos o sinérgicos. Los parásitos con mutaciones o polimorfismos genéticos que confieren una disminución de la sensibilidad a los fármacos serán seleccionados bajo presión farmacológica.

Mecanismos de AcciónEn algunos casos se han asociado mutaciones específicas con la farmacorresistencia (Tabla). La resistencia al Fansidar (SP) se correlaciona con mutaciones específicas en las enzimas diana de la sulfadoxoína y la pirimetamina (dihidrofólico sintetasa y dihidrofolato reductasa, respectivamente). La resistencia a la cloroquina (de la que se hablará más adelante con más detalle) se ha correlacionado con mutaciones en un transportador que se encuentra en la membrana de la vacuola alimentaria (transportador de resistencia a la cloroquina, CRT). Se ha implicado que otro transportador de la vacuola alimentaria, el gen 1 de resistencia a múltiples fármacos (MDR1), desempeña un papel auxiliar en la resistencia. La base de la resistencia a la mefloquina y la quinina no está clara, pero también se ha implicado al gen mdr1.

Cloroquina

La resistencia a la cloroquina se asocia a una disminución de la cantidad de cloroquina que se acumula en la vacuola alimentaria, el lugar de acción de la cloroquina (véase más arriba). El mecanismo de esta menor acumulación es controvertido. Algunos estudios han demostrado que la disminución de la acumulación del fármaco se debe a un aumento de su eflujo. Mientras que otros estudios sugieren que la disminución de los niveles de acumulación de cloroquina es más importante. La observación de que el verapamilo y otros fármacos relacionados pueden revertir el fenotipo resistente a la cloroquina ha llevado a especular que un transportador dependiente de ATP desempeña un papel en el eflujo del fármaco y la resistencia a la cloroquina, similar a la resistencia a múltiples fármacos (MDR) en el cáncer. Se ha identificado un transportador similar a la MDR, designado PfMDR1, en la membrana de la vacuola alimentaria. Sin embargo, no se ha podido demostrar ninguna correlación definitiva entre PfMDR1 y la resistencia a la cloroquina. No obstante, no puede descartarse un papel auxiliar de PfMDR1 en la resistencia a la cloroquina.

Un cruce genético y estudios cartográficos entre un clon resistente a la cloroquina y un clon sensible a la cloroquina dieron como resultado la identificación de una región de 36 kb en el cromosoma 7 asociada a la resistencia a la cloroquina. Uno de los 10 genes de esta región de 36 kb codifica una proteína con 10 dominios transmembrana y se asemeja a una proteína transportadora similar a los canales de cloruro. El gen se ha designado como pfcrt y la proteína se localiza en la membrana de la vacuola alimentaria. Varias mutaciones en el gen pfcrt muestran correlaciones con el fenotipo de resistencia a la cloroquina y una mutación, una sustitución de una treonina (T) por una lisina (K) en el residuo 76 (K76T) muestra una correlación perfecta con la resistencia a la cloroquina. Presumiblemente, estas mutaciones afectan a la acumulación de cloroquina en la vacuola alimentaria, pero se desconoce el mecanismo exacto de la resistencia a la cloroquina. Además, la observación de que la resistencia a la cloroquina ha surgido relativamente pocas veces y se ha extendido posteriormente ha llevado a especular sobre la participación de múltiples genes en el desarrollo de la resistencia (véase más discusión).

Lecturas adicionales

Foley M y Tilley L (1998) Quinoline antimalarials. Mecanismos de acción y resistencia y perspectivas de nuevos agentes. Pharmacology & Therapeutics 79:55

Hyde JE (2007) Drug-resistant malaria -- an insight. FEBS Journal 274, 4688-4698.

Ouellette M (2001) Biochemical and molecular mechanisms of drug resistance in parasites. Trop Med Int Health 6:874.

Rosenthal PJ y Goldsmith RS (2001) Antiprotozoal drugs. En Basic and Clinical Pharmacology, 8ª edición. McGraw-Hill Companies Inc. (Edición en línea disponible a través de Stat!Ref Books en Tulane Medical Library)

Samuelson J (1999) Why metronidazole is active against both bacteria and parasites. Antimicrob Agents Chemother. 43:1533.

Wellems TE y Plowe CV (2001) Paludismo resistente a la cloroquina. J Inf Dis 184:770.

Original Article: http://www2.tulane.edu/~wiser/protozoology/notes/drugs.html

By Jose Melgarejo

April 27, 2023

Read post
logo
La Impresora de Tablas del Observatorio Naval 1945 La Impresora de Tablas del Observatorio Naval 1945 CSR

La primera composición tipográfica programada

La Impresora de Tablas

La máquina de impresión de tablas IBM Electromática, Observatorio Naval de Estados Unidos. Foto: Alrededor de 1946.

Wallace Eckert, catedrático de Astronomía de la Universidad de Columbia, pasó los años de la guerra en el Observatorio Naval de Estados Unidos, donde fue encargado de la Oficina del Almanaque Náutico con el fin de "computarizarla" para la producción rápida y masiva de almanaques precisos para la navegación aérea y marítima de las fuerzas y navíos aliados. Para ello, aportó sus conocimientos de mecánica celeste y su propio método pionero de cálculo científico mediante tarjetas perforadas, una combinación casi única¹. Según sus propias palabras:

"Desde hace muchos años, el Observatorio Naval publica un almanaque náutico y desde hace unos cinco años un almanaque aéreo. El propósito de cualquiera de estas publicaciones es sólo dar esta información -cuál es la longitud y la latitud de cualquier objeto celeste en cualquier momento. Una de las razones por las que varían es que en el pasado el almanaque náutico se diseñó para la tierra y el almanaque aéreo se diseñó para el aire. Tienen tiempo de sobra para utilizar el mapa náutico, mientras que para la navegación aérea, un minuto te llevará muy lejos... Hay dos páginas al día de esta información, es decir, unas 730 páginas [1,5 millones de cifras] al año... Hay que imprimirlas y no puede haber ningún error. Si una de estas cifras es errónea, el navegante... puede perderse a sí mismo y a su avión". [84] (¡o a sí misma!)

La Impresora de Tablas

WASP-Mujeres piloto de la Fuerza Aérea, durante la Segunda Guerra Mundial.

Eckert decidió que, para conseguir belleza (claridad, compacidad y elegancia) y una precisión perfecta (eliminando los pasos de copia, composición manual, revisión y corrección), era necesaria una forma de composición "por ordenador", en la que las tablas de números calculadas por máquinas de computación se introducían directamente en una máquina de componer capaz de crear originales con calidad de publicación. Como solución provisional al principio de la guerra, los dispositivos de impresión de tarjetas perforadas existentes (principalmente la Máquina de Contabilidad IBM 405) se modificaron para producir almanaques aéreos precisos y legibles para 1942-45 mediante un intrincado procedimiento de impresión de dos pasadas, utilizando barras y cintas tipográficas especiales. Mientras tanto, una máquina de escribir de composición por tarjetas especificada por Eckert en 1941 (antes de que EE.UU. entrara en guerra) y construida por IBM, era capaz de espaciado proporcional, negrita, superíndices y subíndices, letras, números, puntuación y símbolos especiales, con diseño y otros detalles programados por una combinación de tarjeta maestra y plugboard; fue entregada en 1945 y produjo su primer Almanaque Aéreo en 1946 [77]. Se llamaba “Máquina Impresora de Tablas Electromagnética”, y consistía en una Máquina de Escribir Electromagnética de Espaciado Proporcional IBM² modificada conectada a un teclado IBM Tipo 016 modificado³. Según Hollander (referencia más adelante), sólo se fabricaron dos: una para Eckert y otra para la sede central de IBM. Sin embargo, según Herb Grosch (referencia más abajo), Eckert dijo en años posteriores que se habían fabricado unidades adicionales para otros lugares de impresión de almanaques (Grosch supo más tarde que una copia británica se instaló en la Oficina de Su Majestad para Almanaques Náuticos en el castillo Herstmonceux en febrero de 1953, y calcula que podría haber habido media docena más).

Desde enero de 2011, tenemos unas fotos excelentes de la perforadora de tarjetas IBM 031, gracias a Paul Varnum del Departamento de Transporte de Iowa, que tiene un parecido tan asombroso con la perforadora mostrada arriba que estaría tentado de decir que la impresora de tablas usaba una 031 y no una 016.

Aunque ya existían máquinas de componer, se accionaban mediante teclado, lo que suponía una fuente de errores. Existían máquinas de linotipia accionadas por cinta de papel perforada, pero la perforadora de cinta también se accionaba mediante teclado, por lo que la probabilidad de error no se reducía. Anteriormente se habían publicado tablas matemáticas en forma de reproducciones fotográficas de impresiones de máquinas de calcular estándar no modificadas, pero eran voluminosas y poco claras. Los números calculados por las máquinas de calcular y perforados en tarjetas directamente en un aparato de impresión de alta calidad resolvían todos estos problemas. Las máquinas utilizadas para imprimir el Almanaque Aéreo de 1942-46: la 405 modificada de Eckert y, posteriormente, la impresora de tablas (fueron casi con toda seguridad las primeras máquinas tipográficas accionadas por ordenador4) una idea concebida por primera vez por Babbage y realizada por Eckert más de 100 años después) debido a las exigencias de la guerra, donde los errores o los números ilegibles podían provocar la pérdida de aviones o la muerte de tripulaciones. El ejército, la marina y los pilotos comerciales imprimieron y utilizaron millones de almanaques aéreos de Eckert sin que nadie se quejara de su legibilidad o exactitud [84].

  1. L.J. Comrie era su homólogo en Inglaterra.
  2. Los modelos anteriores de Electromatic también se utilizaron en COLOSSUS y ASCC.
  3. Herb Grosch explica: "La tarjeta maestra iba en el bastidor de vaivén [del 016] [precursor del tambor de programa del 026], con una barra de salto enganchada a la parte delantera del carro; una muesca decía salto, una muesca más profunda decía copia. También podría haber sido posible poner datos repetitivos en la tarjeta maestra".
  4. La palabra "ordenador" se utiliza en el sentido general de máquina informática. La palabra "máquina de escribir" se utiliza en el sentido de dispositivo capaz de producir originales offset listos para la impresión con calidad de publicación.

Juego de caracteres de la impresora de tablas

La Impresora de Tablas

(De la referencia 4; haga clic en la imagen para ampliarla).

En la imagen se muestra el repertorio completo de caracteres de la impresora de tablas. Como puede verse, sólo incluye lo necesario para imprimir cada página del almanaque; los encabezamientos alfabéticos y las etiquetas se pre imprimían en el papel o se eliminaban posteriormente (las máquinas de escribir con bolas de tipos intercambiables no aparecerían hasta la década de 1960). Así pues, la impresora de tablas no era una máquina de escribir de uso general, pero sí era una máquina de escribir. En palabras de Eckert: "Hay 88 caracteres que, tras la reducción fotográfica, dan cifras claras de 8 puntos, cifras en negrita de 8 puntos, cifras de 8 y 6 puntos en la media línea (sin mover la platina), cifras de 6 puntos en la línea, varios tipos de decimales, signos más y menos, etc., números romanos y símbolos especiales para el Almanaque Aéreo" (Referencia 4 más abajo). El escape permite un espaciado horizontal en unidades de 1/32 de pulgada y un espaciado vertical de 1/12 de pulgada.

La muestra elegida por Hollander (referencia más abajo) para ilustrar la extrema flexibilidad de la impresora de tablas, procedente de la reimpresión por Paul Herget de las Kleine Planeten de emergencia de 1947 producidas en el WSCL (Laboratorio Watson) de Columbia a finales de 1946 (Grosch, página 81). Del artículo de Hollander: "Las Efemérides de Planetas Menores... son una obra maestra de la mecanografía. Ilustran la mayor parte de las capacidades de la máquina de escribir en una sola página. La única impresión que no se hizo con la máquina de tarjetas fueron los nombres de los planetas. Fueron mecanografiados a mano en una máquina de escribir IBM de espaciado proporcional". HAGA CLIC EN LA IMAGEN para ampliarla y ver tipos de 8 y 6 puntos, impresión en media línea, diversos símbolos, etc. Para más muestras, véanse los almanaques aeronáuticos y náuticos de la Segunda Guerra Mundial.

La Impresora de Tablas

Referencias:

  1. United States Navy Nautical Almanac Office, The American Air Almanac, US Government Printing Office, Washington DC (ediciones de 1940 a 1946).
  2. Eckert, W.J., "The Construction of the Air Almanac", 68th Meeting of the American Astronomical Society, New Haven CT, 12-14 de junio de 1942.
  3. Eckert, W.J., "Air Almanacs", Sky and Telescope, Vol.4, No.37 (Oct 1944).
  4. W.J.E. (Wallace J. Eckert) y Ralph F. Haupt, "The Printing of Mathematical Tables", Mathematical Tables and Other Aids to Computation, Vol.2, No.17 (Jan 1947), pp.197-202.
  5. Hollander, Frederick H., "Punched Card Calculating and Printing Methods in the Nautical Almanac Office", Proceedings, Scientific Computation Forum, IBM, Nueva York (1948).
  6. Eckert, W.J., Punched Card Methods in Scientific Computation, The Thomas J. Watson Astronomical Computing Bureau, Columbia University, Lancaster Press, Inc., Lancaster PA (enero de 1940).
  7. Grosch, Herbert R.J., Ordenador: Bit Slices from a Life, Tercera edición, 2003 (en manuscrito), especialmente las páginas 62-65.

Original Article: http://www.columbia.edu/cu/computinghistory/tableprinter.html

By Abner Roa

May 05, 2023

Read post
logo
Lagos: Depresiones de agua sin conexión al mar Lagos: Depresiones de agua sin conexión al mar CSR

Un lago puede definirse como cualquier depresión llena de agua que no esté conectada a un océano. Las masas de agua más pequeñas y menos profundas suelen llamarse estanques, pero no existe una regla de tamaño que distinga un lago de un estanque. Normalmente, se trata de una cuestión de nombres locales.

Aproximadamente el 0,009% del agua de la Tierra se encuentra en lagos. Estas masas de agua varían mucho en superficie, profundidad y forma de formación. Muchos, como los 10.000 lagos de Minnesota, son producto de la rotura del drenaje superficial debido a la glaciación del Pleistoceno. Otros se forman como meandros abandonados de ríos o a partir del drenaje superficial en cuencas cerradas. Desde el punto de vista geológico, los lagos suelen ser elementos temporales del paisaje; la mayoría sólo tienen entre 10.000 y 20.000 años. Los relativamente pocos lagos antiguos son de origen tectónico y ocupan valles de fisura. El lago Baikal, en Asia, es el más antiguo, con 50-75 millones de años. El lago Tanganica, en el continente africano, tiene entre 1,5 y 6 millones de años.

La acumulación de sedimentos y la sucesión ecológica se combinan para acabar transformando los lagos en humedales y éstos en los hábitats terrestres del bioma regional.

La edad y la química del agua, determinada esta última por la geología y el clima locales, determinan el número y los tipos de formas de vida de un lago dado. Sólo los lagos antiguos suelen albergar muchas especies endémicas.

Dado que los lagos son receptores de la escorrentía de las tierras circundantes y del caudal de los arroyos, son sensibles a las prácticas locales y regionales de uso del suelo y vulnerables a la contaminación.

Características de los lagos

Dado que los lagos de las zonas templadas han sido objeto de la mayoría de los estudios científicos, sirven como modelo de lago típico, y a menudo se comparan con ellos los lagos de los trópicos o de latitudes y elevaciones elevadas.

Por lo general, un lago es una masa de agua lo suficientemente profunda como para estratificarse en verano, es decir, para presentar distintas capas en función de la temperatura. La capa superior (el epilimnion) se calienta en verano y se mezcla con el viento, lo que ayuda a mantener los nutrientes y el plancton cerca de la superficie del lago. Esta es también la zona en la que penetra la mayor parte de la energía solar y, por tanto, la zona en la que puede tener lugar la fotosíntesis. Por ello, también se denomina zona fótica. La capa inferior, el hipolimnion, contiene agua más fría y densa.

Entre las dos capas hay una estrecha zona de transición en la que la temperatura cambia rápidamente con la profundidad. Es la termoclina.

En las aguas tranquilas de un lago, los nutrientes y los microorganismos tienden a hundirse por debajo de la zona eufótica y deben reciclarse hacia la superficie para ser consumidos o, en el caso de los fitoplancton, para poder realizar la fotosíntesis. La mezcla superficial por el viento lo consigue en el epilimnion; el afloramiento desde abajo revitaliza la capa superior con nutrientes que se hundieron en el fondo del lago.

Los lagos se renuevan debido a los cambios estacionales de temperatura. El agua dulce es más densa a 3,94 °C (39 °F). Si se enfría hasta congelarse a 32°F (0°C), la densidad disminuye, por lo que el agua muy fría sube a la superficie, provocando lo que se conoce como renovación del agua del lago. El perfil de temperatura invernal es tal que el agua y el hielo más fríos se encuentran en la superficie. El agua en el epilimnion estará aproximadamente a 34°F (1°C), mientras que el agua en el hipolimnion se mantiene alrededor de 39°F (4°C).

Por lo tanto, los lagos se congelan de arriba abajo. Cuando el hielo cubre completamente el estanque, actúa como aislante e impide que todos los estanques, salvo los menos profundos, se congelen. Esto permite que los organismos sobrevivan al invierno en el fondo del lago o cerca de él.

En primavera, los lagos de zonas templadas vuelven a revolcarse a medida que las aguas superficiales se calientan, se vuelven más densas y se hunden.

En los lagos tropicales, la renovación es poco frecuente y pueden formarse zonas muertas cerca del fondo a medida que se agota el oxígeno por los procesos de descomposición. Durante la descomposición anaeróbica, el metano y el sulfuro de hidrógeno gaseoso (como materia orgánica disuelta) pueden acumularse y subir a la superficie en raras ocasiones. Cuando se liberan repentinamente en la superficie, estos gases pueden causar la muerte de peces e incluso ser letales para los residentes humanos locales.

La temperatura del agua es importante para determinar la cantidad de oxígeno y dióxido de carbono disueltos en el agua. Ambos gases son mayoritariamente solubles en agua fría y se liberan a medida que el agua se calienta.

Sucesión lacustre

El medio lacustre cambia a medida que se acumulan nutrientes y sedimentos. Los lagos pueden clasificarse según su carga de nutrientes:

Los lagos oligotróficos tienen pocos nutrientes y, por tanto, aguas claras y una biodiversidad relativamente baja.

Los lagos eutróficos son ricos en nutrientes y tienen aguas turbias y verdosas debido a la abundancia de fitoplancton. Hacia el extremo del espectro, los lagos eutróficos son poco profundos, ya que la cuenca se está llenando de sedimentos. La mayor parte de la columna de agua se calienta en verano y la descomposición puede provocar el agotamiento del oxígeno. La fauna se caracteriza por un gran número de relativamente pocas especies.

Los lagos mesotróficos se sitúan entre las condiciones oligotróficas y eutróficas. Tienen suficientes nutrientes, gases disueltos y profundidad para albergar una fauna rica en especies.

La sucesión comienza cuando fitoplancton profundo, geológicamente joven, coloniza lagos oligotróficos. Cuando los sedimentos comienzan a depositarse a lo largo del margen de la masa de agua, se desarrolla una zona litoral poco profunda, un hábitat adecuado para las plantas acuáticas enraizadas. En las aguas menos profundas y más cercanas a la orilla, invaden el agua totoras y juncos emergentes, así como plantas enraizadas con hojas y flores flotantes, como los nenúfares. Estas plantas atrapan los sedimentos y acumulan tierra hacia el exterior del lago. La superficie de agua abierta se reduce con el tiempo y acaba desapareciendo. Un humedal sustituye al antiguo lago. Arbustos leñosos como el aliso, el sauce y el matorral colonizan la periferia. Más tarde, el humedal también desaparece y los tipos de vegetación regionales toman el relevo.

Lagos

El tiempo que tarda un lago en convertirse en tierra firme varía. En los estanques pequeños, puede ser cuestión de uno o dos siglos. En cambio, el lago Baikal, que tiene millones de años, sigue siendo oligotrófico.

La vida en los lagos

El fitoplancton está formado principalmente por cianobacterias filamentosas y algas, sobre todo diatomeas. Estas células flotantes se concentran en la zona eufótica y se encuentran tanto en la zona litoral como en las aguas abiertas de la zona pelágica. Las diatomeas tienen sílice como soporte de sus paredes celulares y necesitan sílice disuelto para prosperar. Suelen ser la parte principal de una floración de algas en primavera y son sustituidas por algas verdes cuando se agota el suministro de sílice. Las cianobacterias, que toleran niveles bajos de oxígeno, pueden convertirse en dominantes hacia finales del verano.

Plantas

Las plantas se encuentran principalmente en la zona litoral. Las emergentes, enraizadas en el fondo pero que se elevan por encima de la superficie del agua, están confinadas a una franja cercana a la orilla. Incluyen plantas como la espadaña, el carrizo, la hierba lucioperca, la hierba flecha y el garrote dorado. Las plantas acuáticas sumergidas también están enraizadas en el fondo del lago y se limitan a aguas poco profundas cerca de la orilla. Toda la planta crece bajo la superficie del agua. Algunos ejemplos son la isoetáceas, la espiga de agua y la cola de zorro. También hay una serie de plantas enraizadas en el fondo pero con hojas y flores flotantes, como los nenúfares, las salpicaduras y los corazones flotantes. Suelen crecer en aguas algo más profundas, más allá de las plantas emergentes. Otras plantas no están enraizadas en el fondo del lago, sino que flotan libremente. Entre ellas se encuentran las utricularias, la lenteja de agua y la lechuga de agua.

En las arenas saturadas de las playas lacustres pueden florecer plantas como la enea, la pogonia rosa (una orquídea) y la drosera insectívora.

Animales

Los zooplanctarios son rotíferos, pulgas de agua y copépodos.

Los invertebrados están representados por esponjas de agua dulce e hidroides que se adhieren a superficies duras y gusanos oligoquetos que excavan en sedimentos blandos. Los caracoles y los mejillones unionidos pueden ser moluscos abundantes en aguas poco profundas. Los insectos son más abundantes en estado larvario. Son importantes las larvas de tricópteros, moscardones, escarabajos, mosquitos y jejenes. Los insectos adultos se presentan como depredadores que se alimentan desde el aire (libélulas y caballitos del diablo) o patinan en la superficie del agua (estanques y barqueros).

Entre los vertebrados acuáticos se encuentran, por supuesto, peces de numerosas especies. Los anfibios están representados por ranas adultas y los renacuajos de ranas y sapos. Los reptiles asociados a los lagos de agua dulce son tortugas, serpientes y caimanes. Las aves visitan los lagos para alimentarse y anidar. Entre ellas hay patos zambullidores como ánades reales y cercetas y aves buceadoras como somormujos, esmerejones, somormujos lavancos y anhingas. Las aves zancudas, como garzas, garcetas e ibis, acechan a sus presas acuáticas en los bajíos de los lagos.

Los mamíferos también visitan los lagos para alimentarse. En las latitudes medias de Norteamérica, los herbívoros habituales que acuden a los lagos son el castor, la rata almizclera y el alce. Entre los carnívoros están el visón, la nutria, el mapache y los murciélagos piscívoros.

Nota: Para obtener información sobre lagos concretos de todo el mundo, visite la base de datos mundial de lagos LakeNet en http://worldlakes.org/lakes.asp o LakeNet "Lagos de un vistazo" en http://www.worldlakes.org/lakeprofiles.asp. Estas últimas páginas ofrecen listas y datos específicos sobre lagos antiguos, lagos más grandes, lagos más profundos y otras categorías.

Para ver buenas fotos de microorganismos de agua dulce, visite http://nwnature.net/micro_org/index.htm. En el mismo sitio hay también buenas fotos de macroinvertebrados de agua dulce, como larvas de insectos, gusanos y moluscos (http://nwnature.net/macros/index.html). Estas fotos tienen derechos de autor, así que no las utilice sin permiso.

Original article: https://php.radford.edu/~swoodwar/biomes/?page_id=113

By Abner Roa

May 18, 2023

Read post
logo
Secuencias de niveles de laberintos: Simples y alternados Secuencias de niveles de laberintos: Simples y alternados CSR

De los laberintos a las matemáticas

De los laberintos a las matemáticas

El hecho básico que permite el estudio matemático de los laberintos de tránsito simple alternante es el siguiente. La topología de un laberinto de tránsito alterno simple está completamente determinada por su secuencia de niveles. Más adelante se explica cómo funciona esto; significa que si dos laberintos de t.a.s. (digamos, ambos en forma desenrollada) tienen la misma secuencia de niveles, entonces uno puede cambiarse para que coincida con el otro, o con la imagen especular del otro mediante una deformación continua que preserve el nivel.

De ello se deduce que una clasificación topológica completa de los laberintos de tránsito alterno simple equivale a determinar qué secuencias de números pueden aparecer como secuencias de nivel y, de hecho, hay tres condiciones que son necesarias y suficientes para que una permutación de los números de 0 a n sea la secuencia de nivel de un laberinto s.a.t. de profundidad n.

  1. La secuencia debe empezar por 0 y terminar por n.
  2. Los números enteros pares e impares deben alternarse en la secuencia.
  3. Considere los pares de números consecutivos en la secuencia de niveles que comienzan con un número par; éstos corresponden a los segmentos verticales en el lado derecho del laberinto. (*)Si dos de estos segmentos se superponen, uno debe estar anidado dentro del otro. Lo mismo ocurre con los pares que comienzan con un número impar, que corresponden a los segmentos verticales de la izquierda.

Ejemplo: en la secuencia de niveles del laberinto de Constantinopla, los segmentos (10,1) y (2,11) se solapan, pero ninguno está anidado en el otro, por lo que no puede tratarse de la secuencia de niveles de un laberinto s.a.t..

He aquí cómo se demuestra esto:

Necesidad de 1: obvia.

Necesidad de 2: Supongamos que dos capas consecutivas unidas por un segmento vertical a la derecha, por ejemplo, tienen la misma paridad; el espacio entre ellas debe tener un número impar de niveles. Cualquier camino que atraviese ese espacio debe entrar y salir por la izquierda, por lo que sólo puede utilizar un número par de niveles. Contradicción.

Necesidad de 3: Piensa en el laberinto desenrollado, con la entrada, digamos, a la derecha. El camino comienza a la derecha en el nivel 0 y desciende hasta un nivel impar. Luego cruza a la izquierda y pasa al siguiente nivel de la secuencia, que será par, luego vuelve a cruzar a la derecha, etc. Así, los pares de números consecutivos de la secuencia de niveles que empiezan por un número par corresponden a los segmentos verticales de la derecha del laberinto, y los que empiezan por un número impar, a los segmentos de la izquierda. Consideremos ahora dos segmentos verticales cualesquiera del camino de la derecha. Si se solapan, uno debe estar anidado dentro del otro. De lo contrario, no podrían conectarse ambos al lado izquierdo mediante segmentos horizontales, ya que el camino del laberinto no puede intersecarse a sí mismo; y lo mismo debe ocurrir con los segmentos del camino vertical de la izquierda.

Suficiencia: Supongamos dada una permutación de los enteros de 0 a n, que satisfaga las condiciones 1, 2 y 3. He aquí cómo convertirla en un laberinto. En un trozo de papel rayado, numera las líneas de 0 a n, empezando por arriba. Para cada uno de los pares consecutivos de números enteros de la secuencia que empiece por un número par, une las líneas numeradas correspondientes con un segmento vertical en la parte derecha de la página. Si dos de estos segmentos están anidados, dibuja el más corto a la izquierda del más largo. Ahora haz lo mismo con los pares que comienzan impares, excepto en el lado izquierdo, con los segmentos más cortos colocados a la derecha. Ahora, en cada una de las líneas numeradas 1,...,n-1 habrá dos extremos libres de la figura. Únelos a lo largo de esa línea; esto deja un extremo libre arriba y otro abajo. Habrás dibujado el hilo de Ariadna de la forma desenrollada del laberinto s.a.t. correspondiente a la secuencia de niveles con la que empezaste. Ahora es fácil dibujar el laberinto propiamente dicho. Además, con sólo dibujar la parte del laberinto cercana a los bordes derecho e izquierdo de la página, y unir estas dos piezas a lo largo de sus espinas exteriores, se produce el núcleo a partir del cual se puede dibujar la forma enrollada.

Tony Phillips

Departamento de Matemáticas SUNY Stony Brook

tony at math.stonybrook.edu

5 de junio de 2018

Original article: https://www.math.stonybrook.edu/~tony/mazes/levelseq.html

By Abner Roa

May 08, 2023

Read post
logo
Johannes Kepler: Las leyes del movimiento planetario Johannes Kepler: Las leyes del movimiento planetario CSR

movimiento planetario

En la interacción entre observación cuantitativa y construcción teórica que caracteriza el desarrollo de la ciencia moderna, hemos visto que Brahe dominaba la primera pero era deficiente en la segunda. El siguiente gran avance en la historia de la astroomía fue la intuición teórica de Johannes Kepler (1571-1630), un alemán que fue a Praga para convertirse en ayudante de Brahe.

Los datos de Brahe y Kepler

Kepler y Brahe no se llevaban bien. Al parecer, Brahe desconfiaba de Kepler, pues temía que su joven y brillante ayudante pudiera eclipsarle como primer astónomo de su época. Por ello, sólo dejó que Kepler viera una parte de sus voluminosos datos.

movimiento planetarioEncargó a Kepler la tarea de comprender la órbita del planeta Marte, que resultó especialmente problemática. Se cree que parte de la motivación para dar el problema de Marte a Kepler fue que era difícil, y Brahe esperaba que ocupara a Kepler mientras Brahe trabajaba en su teoría del Sistema Solar. En una ironía suprema, fueron precisamente los datos marcianos los que permitieron a Kepler formular las leyes correctas del movimiento planetario, alcanzando así con el tiempo un lugar en el desarrollo de la astronomía muy superior al de Brahe.

Kepler y las órbitas elípticas

A diferencia de Brahe, Kepler creía firmemente en el sistema copernicano. En retrospectiva, la razón por la que la órbita de Marte era particularmente difícil era que Copérnico había situado correctamente el Sol en el centro del Sistema Solar, pero se había equivocado al suponer que las órbitas de los planetas eran círculos. Así, en la teoría copernicana seguían siendo necesarios los epiciclos para explicar los detalles del movimiento planetario.

Le correspondió a Kepler proporcionar la pieza final del rompecabezas: tras una larga lucha, en la que trató por todos los medios de evitar su conclusión final, Kepler se vio obligado finalmente a darse cuenta de que las órbitas de los planetas no eran los círculos exigidos por Aristóteles y asumidos implícitamente por Copérnico, sino que eran los "círculos achatados" que los geómetras llaman elipses (véase la figura adyacente; las órbitas planetarias son sólo ligeramente elípticas y no son tan achatadas como en este ejemplo).

movimiento planetarioLa ironía antes señalada reside en la constatación de que las dificultades con la órbita marciana derivan precisamente del hecho de que la órbita de Marte era la más elíptica de los planetas para los que Brahe disponía de amplios datos. De este modo, Brahe había proporcionado a Kepler, sin saberlo, la parte de sus datos que le permitiría formular la teoría correcta del Sistema Solar y, por tanto, ¡desterrar la teoría de Brahe!

Algunas propiedades de las elipses

Puesto que las órbitas de los planetas son elipses, repasemos algunas propiedades básicas de las elipses.

movimiento planetario1. En una elipse hay dos puntos llamados focos, de modo que la suma de las distancias a los focos desde cualquier punto de la elipse es una constante. En términos del diagrama mostrado a la izquierda, con "x" marcando la localización de los focos, tenemos la ecuación

a + b = constante

que define la elipse en función de las distancias a y b.

2. La cantidad de "aplanamiento" de la elipse se denomina excentricidad. Así, en la figura siguiente las elipses se hacen más excéntricas de izquierda a derecha. Un círculo puede considerarse un caso especial de elipse con excentricidad cero, mientras que, a medida que la elipse se aplana, la excentricidad se aproxima a uno.

Matemáticamente se define como la distancia entre los focos dividida por la longitud del eje mayor. Por tanto, todas las elipses tienen excentricidades comprendidas entre cero y uno.

movimiento planetarioLas órbitas de los planetas son elipses, pero las excentricidades son tan pequeñas en la mayoría de los planetas que parecen circulares a primera vista. En la mayoría de los planetas hay que medir cuidadosamente la geometría para determinar que no son círculos, sino elipses de pequeña excentricidad. Plutón y Mercurio son excepciones: sus órbitas son lo suficientemente excéntricas como para que se pueda ver por inspección que no son círculos.

movimiento planetario3. El eje largo de la elipse se denomina eje mayor, mientras que el eje corto se denomina eje menor (figura adyacente). La mitad del eje mayor se denomina semieje mayor. La longitud de un semieje mayor suele denominarse tamaño de la elipse. Puede demostrarse que la separación media entre un planeta y el Sol a medida que recorre su órbita elíptica es igual a la longitud del semieje mayor. Por tanto, por "radio" de la órbita de un planeta se suele entender la longitud del semieje mayor. Para una investigación más detallada de las propiedades de las elipses, consulte este applet de elipses

Las leyes del movimiento planetario

Kepler obtuvo los datos de Brahe tras su muerte, a pesar de los intentos de la familia de Brahe de ocultárselos con la esperanza de obtener beneficios económicos. Hay indicios de que Kepler obtuvo los datos por medios poco legales; es una suerte para el desarrollo de la astronomía moderna que lo consiguiera. Utilizando los voluminosos y precisos datos de Brahe, Kepler pudo basarse en la constatación de que las órbitas de los planetas eran elipses para formular sus Tres Leyes del Movimiento Planetario.

Primera ley de Kepler:

movimiento planetarioLa Primera Ley de Kepler se ilustra en la imagen superior. El Sol no está en el centro de la elipse, sino en un foco (generalmente no hay nada en el otro foco de la elipse). El planeta sigue la elipse en su órbita, lo que significa que la distancia Tierra-Sol cambia constantemente a medida que el planeta recorre su órbita. A efectos ilustrativos, hemos mostrado la órbita como bastante excéntrica; recuerde que las órbitas reales son mucho menos excéntricas que ésta.

Segunda ley de Kepler:

movimiento planetarioLa segunda ley de Kepler se ilustra en la figura anterior. La línea que une el Sol y el planeta barre áreas iguales en tiempos iguales, por lo que el planeta se mueve más rápido cuando está más cerca del Sol. Así, un planeta ejecuta un movimiento elíptico con una velocidad angular que cambia constantemente a medida que se desplaza por su órbita. El punto de mayor aproximación del planeta al Sol se denomina perihelio; el punto de mayor separación, afelio. Por tanto, según la segunda ley de Kepler, el planeta se mueve más rápido cuando está cerca del perihelio y más lento cuando está cerca del afelio.

Tercera ley de Kepler:

movimiento planetarioEn esta ecuación P representa el período de revolución (órbita) de un planeta alrededor del sol y R representa la longitud de su semieje mayor. Los subíndices "1" y "2" distinguen las cantidades correspondientes a los planetas 1 y 2, respectivamente. Se supone que los periodos de los dos planetas están en las mismas unidades de tiempo y que las longitudes de los semiejes mayores de los dos planetas están en las mismas unidades de distancia.

La Tercera Ley de Kepler implica que el periodo de un planeta en órbita alrededor del Sol aumenta rápidamente con el radio de su órbita. Así, Mercurio, el planeta más interior, tarda sólo 88 días en orbitar alrededor del Sol, pero el planeta más exterior (Plutón) necesita 248 años para hacer lo mismo.

He aquí un applet java que permite investigar las leyes de Kepler, y He aquí una animación que ilustra los periodos relativos reales de los planetas interiores.

Cálculos con la tercera ley de Kepler

Una unidad de medida conveniente para los periodos es en años terrestres, y una unidad de medida conveniente para las distancias es la separación media de la Tierra respecto al Sol, que se denomina unidad astronómica y se abrevia como UA. Si se utilizan estas unidades en la 3ª Ley de Kepler, los denominadores de la ecuación anterior son numéricamente iguales a la unidad y puede escribirse de la forma simple

movimiento planetarioEsta ecuación puede resolverse para el período P del planeta, dada la longitud del semieje mayor,

movimiento planetario

o para la longitud del semieje mayor, dado el período del planeta,

movimiento planetario

Como ejemplo de aplicación de la 3ª Ley de Kepler, calculemos el "radio" de la órbita de Marte (es decir, la longitud del semieje mayor de la órbita) a partir del período orbital. Se observa que el tiempo que tarda Marte en orbitar alrededor del Sol es de 1,88 años terrestres. Por tanto, según la 3ª Ley de Kepler, la longitud del semieje mayor de la órbita marciana es

movimiento planetarioque es exactamente la distancia media medida entre Marte y el Sol. Como segundo ejemplo, calculemos el periodo orbital de Plutón, dado que su separación media observada del Sol es de 39,44 unidades astronómicas. A partir de la 3ª Ley de Kepler

movimiento planetarioque es efectivamente el período orbital observado para el planeta Plutón.

Referencias complementarias

  • Archivo de imágenes astronómicas del día
  • Breve biografía de Kepler

Original article: www.pas.rochester.edu/~blackman/ast104/kepler11.html

By Jose Melgarejo

July 24, 2023

Read post
logo
El debate sobre el peso El debate sobre el peso CSR

Len Kravitz, Ph.D.

Introducción

En una edición reciente de Medicina y Ciencia en Deportes y Ejercicio, algunos investigadores destacados (Jakicic et al. 2019, Gaesser et al., 2019) debatieron, en una combinación punto-contra-punto de artículos, si los riesgos para la salud de la obesidad han sido o no exagerados. Nuestro enfoque con esta columna de investigación es el resumen de varios puntos clave sobre la obesidad desde estas perspectivas intelectuales contrastadas y proporcionar la mejor aplicación práctica al profesional del fitness. También discutiremos las directrices conductuales basadas en la evidencia para tratar a las poblaciones obesas.

La obesidad saludable es alcanzable

Gaesser y Blair (2019) sostienen que nosotros, como un campo de investigadores y profesionales, debemos centrarnos más en mejorar los comportamientos de salud y dedicar menos tiempo a las estrategias de pérdida de peso para aquellos clientes con clasificaciones de obesidad IMC (es decir, IMC &Mac179; 30 km/m2). Los investigadores indican que no pretenden minimizar los riesgos de la obesidad, sino señalar que existe una subpoblación de individuos obesos en buena forma física que no se ven afectados negativamente por su adiposidad. Gaesser y Blair subrayan las investigaciones que indican que la forma física cardiorrespiratoria es un importante signo vital de salud y un predictor de mortalidad más potente que la obesidad. En sus conclusiones, Gaesser y Blair instan a los profesionales sanitarios a promover un estilo de vida más saludable, que incluya actividad física y una dieta sana, en lugar de intentar alcanzar un objetivo específico de pérdida de peso. Sugieren que se atenderá mejor a las personas obesas si se diseñan programas dirigidos principalmente a mejorar la forma física, ya que ésta es más importante que los programas dirigidos a combatir la gordura.

La obesidad está relacionada con todas las causas de enfermedad crónica y mortalidad

Jakicic et al. (2019), en su artículo de contrapunto, sostienen que no se han exagerado los riesgos para la salud de la obesidad. Los investigadores citan estudios que muestran que los niveles obesos de IMC están asociados con la mortalidad por enfermedades cardiovasculares en hombres y mujeres, así como con todas las causas de mortalidad. Los científicos prosiguen su argumentación haciendo referencia a estudios que demuestran que el exceso de peso corporal está asociado a varias formas de cáncer y diabetes de tipo 2. En lo que respecta a los pacientes con cáncer, Jakicic y sus colegas señalan que las investigaciones demuestran que un IMC más elevado está relacionado con una peor supervivencia y una mayor probabilidad de reaparición del cáncer. En cuanto a la diabetes de tipo 2, Jakicic et al. denotan estudios que demuestran que la pérdida de peso puede reducir el riesgo de desarrollar esta enfermedad, así como los medicamentos necesarios para tratarla. Varias de las consecuencias negativas para la salud de la obesidad incluyen una correlación con las enfermedades cardiovasculares, la diabetes tipo 2, los trastornos del sueño, el dolor lumbar, el dolor crónico en piernas y pies, el aumento del riesgo de varias formas de cáncer, la reducción del equilibrio y la movilidad, y la reducción de la calidad de vida relacionada con la salud (Jakicic et al. 2019). Jakicic et al. proponen que los proveedores de atención sanitaria aborden la obesidad de manera similar a otros factores de riesgo para la salud (por ejemplo, hipertensión, hiperlipidemia, etc.) en su programación.

Punto-contrapunto: ambas partes ganan

Es interesante observar que uno de los resultados generales de este debate intelectual, sobre si los riesgos para la salud de la obesidad son exagerados, aclara aún más el papel del profesional del fitness y del proveedor de atención sanitaria. En ambos documentos se establece claramente la premisa principal de que las intervenciones que promueven un estilo de vida saludable y ÓPTIMO son las mejores, ya que esto conducirá a los mayores beneficios posibles para la salud de los clientes. Jakicic et al. (2019) afirman que los profesionales del fitness y la salud deben desarrollar una programación que mejore los principales comportamientos de estilo de vida, como una actividad física suficiente, una nutrición óptima, un comportamiento menos sedentario, no fumar y cumplir con la medicación recetada.

Enfoques conductuales para tratar la obesidad

Las intervenciones de estilo de vida que ayudan a los clientes a perder 1-2 libras por semana, lo que resulta en una pérdida de peso del 5-10% en 6 meses, son genuinas (Olson, Bond, y Wing, 2017). Para que se produzca una pérdida de peso óptima, es necesaria una estrategia de déficit de kilocalorías (aproximadamente 500 a 1000 kilocalorías/día) en el consumo de alimentos. Olson y sus colegas sugieren que para las personas de menos de 200 libras de peso corporal, un estilo de vida dietético de 1000 a 1500 kilocalorías es un objetivo sensato, mientras que, para los clientes de más de 200 libras de peso corporal, es preferible un enfoque de 1500 a 1800 kilocalorías. Los investigadores subrayan que el enfoque conductual debe individualizarse en función del cliente, ya que se puede perder peso con éxito con un enfoque bajo en carbohidratos o en grasas, siempre que se reduzcan las kilocalorías de alguna forma.

Según Olson y sus colegas, el autocontrol del peso corporal, la ingesta de alimentos (incluido el consumo de bebidas) y la actividad física (es decir, la aplicación podómetro y los registros de ejercicio) es el mejor predictor del éxito de un enfoque conductual para tratar la obesidad. La autovigilancia sirve para que el cliente reconozca el efecto de su estilo de vida en el peso corporal y la salud. Los investigadores explican que otra estrategia conductual importante es el control de estímulos. Con el control de estímulos, el paciente aprende a reducir las señales que le incitan a comer y a aumentar las que le animan a elegir un estilo de vida saludable. Un ejemplo de esta estrategia es retirar los alimentos ricos en calorías de la cocina y sustituirlos por opciones sanas y bajas en calorías. Otras estrategias conductuales que pueden incluirse en el tratamiento conductual de la obesidad son el establecimiento de objetivos (quizás siguiendo el principio S.M.A.R.T.: específicos, manejables, alcanzables, realistas y limitados en el tiempo) y la resolución de problemas. Con la resolución de problemas, un profesional del fitness puede hablar con un cliente sobre una situación próxima (por ejemplo, una fiesta), que puede hacer que el cliente se sienta tentado a comer (o beber) en exceso. Con la resolución de problemas, el profesional del fitness y el cliente pueden establecer estrategias para gestionar estas situaciones difíciles previstas.

Con la actividad física y el ejercicio para el tratamiento de la obesidad, la progresión constante es la clave. Es adecuado comenzar con 50 minutos semanales de actividad de intensidad moderada (por ejemplo, caminar a paso ligero). Progresar gradualmente hasta 200-250 minutos por semana de ejercicio parece ser una recomendación óptima para el mantenimiento del peso que se pierde (Olson et al., 2017). Olson y sus colegas (2017) también destacan que las intervenciones exitosas contra la obesidad deben contar con estrategias planificadas que combatan el comportamiento sedentario (consulte julio/agosto de IDEA Fitness Journal para obtener ideas). Los investigadores destacan que un programa de pérdida de peso exitoso, además de tener muchos beneficios clínicos, también tiene varios beneficios psicológicos, como la reducción de los sentimientos depresivos, la disminución de la ansiedad, el aumento de la autoestima y la mejora de la imagen corporal.

Tabla 1. Componentes principales de un programa conductual de pérdida de peso

Estrategias conductuales

Resolución de problemas y establecimiento de objetivos

Autocontrol (registro diario de la dieta, el peso, la actividad física y el ejercicio)

Control de estímulos (retirar de casa los alimentos ricos en calorías)

Discutir estrategias para aumentar la adherencia a la dieta y a los objetivos de actividad

Restricción calórica

Reducir la ingesta de grasas y/o hidratos de carbono para alcanzar los objetivos calóricos

Personas >200 lbs: aconsejar una dieta de 1500-1800 kcal/día

Personas de menos de 90 kg: aconsejar una dieta de 1000-1500 kcal/día

Individualizada para producir un déficit de 500-1000 kilocalorías

Actividad física y ejercicio

Comenzar con sesiones de 10 minutos 5 días a la semana

Aumentar progresivamente a sesiones de 30 minutos los 5 días de la semana

Eventualmente, aumentar a 200-250 minutos/semana

Haga ejercicio a una intensidad algo dura

Fuente: Adaptado de Olson et al., 2017

Estrategias para prevenir la recuperación del peso

Tras una pérdida de peso exitosa, a menudo se produce una recuperación de peso en los meses posteriores a la intervención. Olson et al. (2017) sugieren que nuestro entorno obesogénico social contribuye a esta recuperación de peso. Un entorno obesogénico incluye estímulos ambientales que promueven la inactividad física (ascensores, escaleras mecánicas, servicios de entrega, juegos de ordenador, ver la televisión, etc.) y el consumo excesivo de alimentos/bebidas (por ejemplo, porciones demasiado grandes en restaurantes). Según Olson et al., los clientes que mantienen un estilo de vida bajo en calorías, practican actividad física y ejercicio con regularidad y autocontrolan su peso tienen más probabilidades de mantener su pérdida de peso con el paso del tiempo. Los investigadores resumen otras investigaciones que concluyen que el factor predictivo más sólido y fiable del mantenimiento del peso a largo plazo (tras la pérdida de peso) es el ejercicio regular.

Ideas para llevarse a casa

Muchos clientes acuden a entrenadores personales con la esperanza de alcanzar nuevos objetivos de control de peso. Las pruebas de este debate de punto y contrapunto sugieren que si reformulamos nuestros mensajes a los clientes para que alcancen una salud óptima, incluida una actividad física suficiente, una nutrición óptima, un comportamiento menos sedentario, no fumar y cumplir con la medicación recetada, los resultados de los clientes serán mucho más significativos.

Biografía

Len Kravitz, Ph.D., especialista en Ciencias del Ejercicio, es el coordinador del programa de Ciencias del Ejercicio de la Universidad de Nuevo México, donde recibió el Premio al Profesor Sobresaliente del Año y el Premio Presidencial a la Distinción. Acaba de publicar su tercer libro, "HIIT Your Limit" (Amazon).

Referencias:

Jakicic, J.M., Rogers, R.J., y Donnelly, J.E. (2019). Los riesgos para la salud de la obesidad no han sido exagerados. Medicina y ciencia en el deporte y el ejercicio, 51(1), 222-225.

Gaesser, G.A. y Blair, S.N. (2019). Los riesgos para la salud de la obesidad se han exagerado. Medicina y ciencia en el deporte y el ejercicio, 51(1), 218-221.

Olson, K., Bond, D., Wing, R.R. (2017). Enfoques conductuales para el tratamiento de la obesidad. Revista médica de Rhode Island, 100(2), 21-24.

Original article: https://www.unm.edu/~lkravitz/Article%20folder/WeightDebate.html

By Abner Roa

June 05, 2023

Read post
logo
¿Qué es la Semántica? ¿Qué es la Semántica? CSR

Richmond H. Thomason

Versión 1 preparada: 1 de diciembre de 1996

Versión 2 (revisiones menores): 27 de marzo de 2012

Derechos de autor, Richmond H. Thomason, 1996

Se admiten comentarios: Envíe sus comentarios a [email protected]

Explicación: Este documento es un intento de hacer inteligible un área de investigación arcana y poco comprendida para alguien que no sepa lógica ni lingüística. Fue escrito originalmente para una enciclopedia que quería algo accesible incluso para un público preescolar. Pero no aparece en ninguna enciclopedia, porque yo no estaba dispuesto a escribir algo según las especificaciones de los editores, y ellos no estaban dispuestos a cambiar sus especificaciones. Este episodio es un ejemplo más de lo mal que lo han hecho los semanticistas a la hora de concienciar, incluso a los profanos bien informados, de cuáles son los problemas en este campo.

La semántica es el estudio del significado de las expresiones lingüísticas. Puede tratarse de una lengua natural, como el inglés o el navajo, o de una lengua artificial, como un lenguaje de programación informática. El significado en las lenguas naturales lo estudian principalmente los lingüistas. De hecho, la semántica es una de las principales ramas de la lingüística contemporánea. Los informáticos teóricos y los lógicos estudian los lenguajes artificiales. En algunas áreas de la informática, estas divisiones se cruzan. En la traducción automática, por ejemplo, los informáticos pueden querer relacionar textos en lenguaje natural con representaciones abstractas de sus significados; para ello, tienen que diseñar lenguajes artificiales para representar significados.

Existen fuertes conexiones con la filosofía. A principios de este siglo, los filósofos trabajaron mucho en semántica, y todavía siguen haciéndolo.

Cualquiera que hable una lengua tiene una capacidad realmente asombrosa para razonar sobre el significado de los textos. Tomemos, por ejemplo, la frase

(S) No puedo deshacer ese nudo con una mano.

Aunque probablemente nunca hayas visto esta frase, puedes ver fácilmente cosas como las siguientes:

  1. La frase trata de las capacidades de quien la ha dicho o escrito. (Llama a esta persona el hablante).
  2. También trata de un nudo, tal vez uno que el hablante está señalando.
  3. La frase niega que el hablante tenga cierta capacidad. (Esta es la aportación de la palabra 'can't'.)
  4. Desatar es una forma de hacer que algo no esté atado.
  5. La frase no significa que el nudo tenga una mano; tiene que ver con cuántas manos se utilizan para hacer el desatado.

El significado de una frase no es sólo un montón desordenado de los significados de sus palabras. Si eso fuera cierto, "Los vaqueros montan a caballo" y "Los caballos montan a los vaqueros" significarían lo mismo. Así que tenemos que pensar en la ordenación de los significados.

He aquí una disposición que parece poner de manifiesto las relaciones entre los significados de la frase (S).

No [ Yo [ Capaz [ [ [Hacer [No [Atado]]] [Ese nudo]]] [Con una mano] ] ] ]

La unidad [Hacer [No [Atado]] corresponde aquí al acto de desatar; contiene una subunidad correspondiente al estado de estar desatado. Las unidades más grandes corresponden al acto de desatar ese nudo y al acto de desatar ese nudo con una mano. A continuación, este acto se combina con Capaz para formar una unidad mayor, correspondiente al estado de ser capaz de desatar ese nudo con una mano. Esta unidad se combina con Yo para formar el pensamiento de que tengo este estado, es decir, el pensamiento de que soy capaz de desatar ese nudo con una mano. Finalmente, esto se combina con No y obtenemos la negación de ese pensamiento.

Esta idea de que las unidades significativas se combinan sistemáticamente para formar unidades significativas mayores, y de que entender las frases es una forma de resolver estas combinaciones, ha sido probablemente el tema más importante de la semántica contemporánea.

Los lingüistas que estudian la semántica buscan reglas generales que pongan de manifiesto la relación entre la forma, que es la disposición observada de las palabras en las frases, y el significado. Esto es interesante y desafiante, porque estas relaciones son muy complejas.

Una regla semántica para el inglés podría decir que una frase simple que incluya la palabra "can't" (no puedo) siempre corresponde a una disposición de significado como la siguiente

No [ Capaz ... ],

pero nunca a una como

Capaz [ No ... ].

Por ejemplo, "No puedo bailar" significa que no puedo bailar; no significa que no pueda bailar.

Para asignar significados a las frases de una lengua, hay que saber cuáles son. Otro campo de la lingüística, la sintaxis, se encarga de responder a esta pregunta proporcionando reglas que muestran cómo se construyen las frases y otras expresiones a partir de partes más pequeñas y, finalmente, a partir de palabras. El significado de una frase depende no sólo de las palabras que contiene, sino también de su estructura sintáctica: la frase

(S) Eso puede hacerte daño

por ejemplo, es ambigua: tiene dos significados distintos. Éstos corresponden a dos estructuras sintácticas distintas. En una estructura, "Eso" es el sujeto y "puede" es un verbo auxiliar (que significa "capaz"), y en la otra "Eso puede" es el sujeto y "puede" es un sustantivo (que indica una especie de contenedor).

Como el significado de una frase depende tanto de su estructura sintáctica, los lingüistas han reflexionado mucho sobre las relaciones entre la estructura sintáctica y el significado; de hecho, las pruebas de ambigüedad son una forma de poner a prueba las ideas sobre la estructura sintáctica.

Cabría esperar que un experto en semántica supiera mucho sobre lo que son los significados. Pero los lingüistas no han respondido directamente a esta pregunta con mucho éxito. Esto puede parecer una mala noticia para la semántica, pero en realidad no es tan raro que los conceptos básicos de una ciencia de éxito sigan siendo problemáticos: un físico probablemente tendrá problemas para decirle qué es el tiempo. La naturaleza del significado, y la naturaleza del tiempo, son cuestiones fundamentales que debaten los filósofos.

Podemos simplificar un poco el problema diciendo que, sean cuales sean los significados, nos interesa el significado literal. A menudo se transmite mucho más que el significado de una frase cuando alguien la utiliza. Supongamos que Carol dice "Tengo que estudiar" en respuesta a "¿Puedes ir al cine esta noche?". Quiere decir que esa noche tiene que estudiar y que por eso no puede ir al cine. Pero la frase que utilizó literalmente sólo significa que tiene que estudiar. Los significados no literales se estudian en la pragmática, un área de la lingüística que se ocupa del discurso y los efectos contextuales.

Pero, ¿qué es un significado literal? Hay cuatro tipos de respuestas: (1) se puede esquivar la pregunta, o (2) apelar al uso, o (3) apelar a la psicología, o (4) tratar los significados como objetos reales.

(1) La primera idea implicaría intentar reconstruir la semántica de modo que pueda hacerse sin referirse realmente a los significados. Resulta difícil hacerlo, al menos si se quiere una teoría que haga lo que a los semanticistas lingüísticos les gustaría que hiciera una teoría. Pero la idea fue popular a principios del siglo XX, especialmente en las décadas de 1940 y 1950, y se ha retomado varias veces desde entonces, porque muchos filósofos preferirían prescindir de los significados si fuera posible. Pero estos intentos tienden a ignorar los requisitos lingüísticos y, por diversas razones técnicas, no han tenido mucho éxito.

(2) Cuando un angloparlante dice "It's raining" y un francófono dice "Il pleut", puede decirse que existe un patrón común de uso. Pero nadie sabe realmente cómo caracterizar lo que tienen en común las dos expresiones sin invocar de algún modo un significado común. (En este caso, el significado de que está lloviendo.) Así que esta idea no parece explicar realmente qué son los significados.

(3) Aquí se trataría de explicar los significados como ideas. Se trata de una idea antigua, que sigue siendo popular; hoy en día, adopta la forma de desarrollar un lenguaje artificial que se supone que capta las "representaciones cognitivas internas" de un agente ideal que piensa y habla. El problema de este planteamiento es que los métodos de la psicología contemporánea no ayudan mucho a saber en general cómo son esas representaciones internas. Esta idea no parece conducir todavía a una metodología que pueda producir una teoría semántica viable.

(4) Si decimos que el significado de "Marte" es un determinado planeta, al menos tenemos una relación de significado con la que podemos lidiar. Por un lado está la palabra "Marte" y, por otro, esa gran bola de materia que gira alrededor del Sol. Esta claridad es buena, pero es difícil ver cómo se puede abarcar todo el lenguaje de esta manera. No nos ayuda mucho a decir qué significan las frases, por ejemplo. ¿Y qué hay del otro significado de "Marte"? ¿Tenemos que creer en el dios romano para decir que "Marte" tiene sentido? ¿Y qué hay de "el mayor número"?

El enfoque que la mayoría de los semanticistas apoyan es una combinación de (1) y (4). Utilizando técnicas similares a las empleadas por los matemáticos, se puede construir un complejo universo de objetos abstractos que pueden servir como significados (o denotaciones) de diversos tipos de expresiones lingüísticas. Dado que las frases pueden ser verdaderas o falsas, los significados de las frases suelen implicar los dos valores de verdad verdadero y falso. Se pueden inventar lenguajes artificiales para hablar de estos objetos; algunos semanticistas afirman que estos lenguajes pueden utilizarse para captar representaciones cognitivas internas. De ser así, esto también incorporaría elementos de (3), el enfoque psicológico de los significados. Por último, al restringir la atención a partes seleccionadas del lenguaje natural, a menudo se pueden evitar preguntas difíciles sobre qué son los significados en general. Por eso, este enfoque esquiva en cierta medida la cuestión general de qué son los significados. La esperanza sería, sin embargo, que a medida que se abarquen más construcciones lingüísticas, surjan mejores y más adecuadas representaciones del significado.

Aunque los "valores de verdad" pueden parecer artificiales como componentes del significado, son muy útiles para hablar del significado de cosas como la negación; la regla semántica de las oraciones negativas dice que sus significados son como los de las oraciones positivas correspondientes, salvo que el valor de verdad se cambia, falso por verdadero y verdadero por falso. No está lloviendo" es verdadera si "Está lloviendo" es falsa, y falsa si "Está lloviendo" es verdadera.

Los valores de verdad también proporcionan una conexión con la validez y el razonamiento válido. (Es válido inferir una frase S2 a partir de S1 en caso de que S1 no pudiera ser verdadera cuando S2 es falsa). Este interés en el razonamiento válido proporciona una fuerte conexión con el trabajo en la semántica de las lenguas artificiales, ya que estas lenguas se diseñan generalmente con alguna tarea de razonamiento en mente. Los lenguajes lógicos están diseñados para modelar razonamientos teóricos, como las pruebas matemáticas, mientras que los lenguajes informáticos están pensados para modelar una gran variedad de tareas de razonamiento generales y especiales. La validez es útil para trabajar con pruebas porque nos proporciona un criterio de corrección. Lo mismo ocurre con los programas informáticos, donde a veces se puede utilizar para demostrar que un programa es correcto o (si la demostración falla) para descubrir fallos en los programas.

Estas ideas (que en realidad proceden de la lógica) han demostrado ser muy poderosas a la hora de proporcionar una teoría sobre cómo los significados de las oraciones del lenguaje natural dependen de los significados de las palabras que contienen y de su estructura sintáctica. En los últimos cuarenta años se ha avanzado mucho en este sentido, no sólo en el caso del inglés, sino de una gran variedad de lenguas. Esto se ve facilitado por el hecho de que las lenguas humanas son muy similares en el tipo de reglas que se necesitan para proyectar significados de palabras a frases; difieren principalmente en sus palabras y en los detalles de sus reglas sintácticas.

Últimamente ha aumentado el interés por la semántica léxica, es decir, por la semántica de las palabras. La semántica léxica no consiste tanto en intentar escribir un "diccionario ideal". (Los diccionarios contienen mucha información útil, pero no proporcionan realmente una teoría del significado ni buenas representaciones de los significados). La semántica léxica se ocupa más bien de las relaciones sistemáticas entre los significados de las palabras y de los patrones recurrentes entre los distintos significados de una misma palabra. No es casualidad, por ejemplo, que se pueda decir "Sam se comió una uva" y "Sam comió", ya que el primero dice lo que Sam comió y el segundo simplemente que Sam comió algo. Lo mismo ocurre con muchos verbos.

La lógica es una ayuda en la semántica léxica, pero ésta está llena de casos en los que los significados dependen sutilmente del contexto, y hay excepciones a muchas generalizaciones. (Socavar algo es minar debajo de ello; pero entender algo no es pararse debajo de ello). Así que la lógica no nos lleva tan lejos aquí como parece llevarnos en la semántica de las oraciones.

La semántica del lenguaje natural es importante para intentar que los ordenadores sean más capaces de tratar directamente con las lenguas humanas. En una aplicación típica, hay un programa que la gente necesita utilizar. Para ejecutarlo, hay que utilizar un lenguaje artificial (normalmente, un lenguaje de comandos o de consulta con fines especiales) que indique al ordenador cómo realizar alguna tarea útil de razonamiento o de respuesta a preguntas. Pero enseñar este lenguaje a todos los que quieran interactuar con el programa es frustrante y lleva mucho tiempo. Por eso, a menudo merece la pena escribir un segundo programa, una interfaz de lenguaje natural, que medie entre las órdenes sencillas en un lenguaje humano y el lenguaje artificial que entiende el ordenador. Aquí, desde luego, no hay confusión sobre lo que es un significado; los significados que se quieren atribuir a los comandos en lenguaje natural son las expresiones correspondientes del lenguaje de programación que entiende la máquina. Muchos informáticos creen que la semántica del lenguaje natural es útil para diseñar programas de este tipo. Pero es sólo una parte del problema. Resulta que la mayoría de las frases en inglés son ambiguas hasta un punto deprimente. (Si una frase tiene sólo cinco palabras, y cada una de estas palabras tiene cuatro significados, sólo esto da potencialmente 1.024 posibles significados combinados). Por lo general, sólo unos pocos de estos significados potenciales son plausibles. La gente es muy buena para centrarse en estos significados plausibles, sin dejarse abrumar por los significados no intencionados. Pero para ello hace falta sentido común, y de momento no sabemos muy bien cómo conseguir que los ordenadores imiten este tipo de sentido común. Los investigadores del área de la informática conocida como Inteligencia Artificial están trabajando en ello. Mientras tanto, al construir interfaces de lenguaje natural, se puede aprovechar el hecho de que una aplicación específica (como recuperar respuestas de una base de datos) limita las cosas que un usuario es probable que diga. Gracias a esto y a otras técnicas ingeniosas, es posible crear interfaces de lenguaje natural para fines específicos que funcionan extraordinariamente bien, aunque todavía estamos muy lejos de descubrir cómo hacer que los ordenadores comprendan el lenguaje natural para fines generales.

Es probable que la semántica no le ayude a averiguar el significado de una palabra que no entiende, aunque tiene mucho que decir sobre los patrones de significado que se encuentran en las palabras. Desde luego, no puede ayudarte a entender el significado de uno de los sonetos de Shakespeare, ya que el significado poético es muy distinto del literal. Pero a medida que aprendemos más sobre semántica, descubrimos muchas cosas sobre cómo las lenguas del mundo relacionan las formas con los significados. Y al hacerlo, estamos aprendiendo mucho sobre nosotros mismos y sobre cómo pensamos, además de adquirir conocimientos útiles en muchos campos y aplicaciones diferentes.

Original article: web.eecs.umich.edu/~rthomaso/documents/general/what-is-semantics.html

By Jose Melgarejo

June 12, 2023

Read post
logo
El primo de Mersenne de la UCLA El primo de Mersenne de la UCLA CSR

En agosto de 2008, se descubrió un nuevo número primo de Mersenne en uno de los ordenadores del Programa de Informática (PIC) del Departamento de Matemáticas de la UCLA. Este número resulta ser el mayor número primo conocido del mundo, y el descubrimiento ha generado mucho interés. En un esfuerzo por ahorrar tiempo y energía a todo el mundo, he pensado en colgar en la web información en formato de preguntas frecuentes.

Dado que muchas de las preguntas que he recibido proceden de personas sin formación técnica (incluidos niños), estas FAQ no son técnicas. Eso sí, hay que saber qué es un número primo.

No obstante, me veo obligado a hacer esta advertencia: aunque trabajo para el Departamento de Matemáticas, soy administrador de sistemas, no matemático. Si busca información seria sobre los números primos de Mersenne, le remito al excelente sitio web de Chris Caldwell Mersenne Primes: Historia, teoremas y listas. Otros sitios interesantes son la página de Wolfram Mersenne Prime y el entretenido Mersenne Prime Digits and Names de Landon Curt Noll.

Y ahora, ¡las preguntas!

Q. ¿Qué es un primo Mersenne?

A. En resumen, hay una subclase de números primos conocidos como primos de Mersenne. Deben su nombre a Marin Mersenne, un matemático del siglo XVII. En el momento de escribir este artículo, hay menos de 50 números primos de Mersenne conocidos.

Todos los números primos de Mersenne tienen la forma 2P-1, donde P es un primo conocido. El primer primo de Mersenne es 3 porque 22 -1 = 3. Observe que el exponente P es un número primo, en este caso 2. El siguiente primo Mersenne es 7 porque 23 - 1 = 7, siendo P el número primo 3. A continuación viene 31 (25 - 1), luego 127 (27 - 1), 8191 (213 - 1) y 131071 (217 - 1).

Como puede ver, después de los primeros, los números primos de Mersenne se hacen grandes muy rápidamente. Hay una buena tabla de los números primos de Mersenne conocidos aquí que le dará algo de perspectiva.

Los más pequeños de estos números eran conocidos en la antigüedad, pero hasta 1951 sólo 12 habían sido descubiertos. En los últimos 50 años, se han descubierto varias docenas más con la ayuda de ordenadores. Los números primos de Mersenne descubiertos más recientemente son asombrosamente grandes, con millones de dígitos. El primo Mersenne de la UCLA tiene unos 12,9 millones de dígitos.

Tenga en cuenta que todos los números primos de Mersenne son números primos, pero muy pocos números primos son números primos de Mersenne.

Q. ¿Qué es el primo de Mersenne de la UCLA? ¿Por qué es especial?

A. El primo de Mersenne de la UCLA es el primer número primo descubierto que tiene más de 10 millones de dígitos. Se descubrió en el departamento de Matemáticas de la UCLA el 23 de agosto de 2008.

Todos los números primos de Mersenne son especiales por su rareza, pero éste ha recibido una atención especial porque puede optar a un premio (véase más abajo).

El número primo de Mersenne de la UCLA es 243112609 - 1. El número real tiene 12.978.189 dígitos. Si le interesa, Landon Curt Noll, investigador de números primos de Mersenne desde hace mucho tiempo, ha puesto el número a su disposición aquí. Si le interesa mucho, también puede consultar el número completo en inglés (los 328 megabytes que contiene) aquí.

Q. ¿Es éste el primer número Mersenne de UCLA?

A. En realidad, ¡es el octavo número primo Mersenne de la UCLA!

En 1952, el profesor Raphael Robinson encontró 5 nuevos números primos de Mersenne utilizando el Standards Western Automatic Computer (SWAC) de la UCLA, uno de los ordenadores más rápidos de su época. Se trataba de los números 13 a 17 descubiertos y cada uno de ellos tenía cientos de dígitos. Los números primos de Mersenne de Robinson fueron los primeros que se descubrieron en 75 años y los primeros que se descubrieron utilizando un ordenador digital.

En 1961, el matemático de la UCLA Alexander Hurwitz descubrió los números 19 y 20 de los Primeros de Mersenne en el ordenador central IBM 7090 del Centro de Computación de la UCLA. Cada uno de estos números tenía más de 1.200 dígitos.

Ahora, 47 años después, la tradición de la UCLA de descubrir los primos de Mersenne continúa.

Q. ¿Quién busca los primos de Mersenne? ¿Cómo lo hacen?

A. Miles de personas utilizando decenas de miles de ordenadores están participando en la Gran Búsqueda de Primeros Mersenne en Internet (GIMPS), un esfuerzo organizado dedicado a la búsqueda de Primeros Mersenne. Este es uno de los muchos esfuerzos en curso en el campo de la computación distribuida, y podría decirse que el más exitoso.

La búsqueda está muy bien organizada. La buena gente de Primenet ha estado coordinando el esfuerzo durante los últimos 12 años, y proporciona el excelente programa Prime95 de forma gratuita a cualquiera que quiera ejecutarlo. Llevan un registro de los números que han sido probados y proporcionan un flujo constante de números candidatos no probados a la comunidad del GIMPS. Los participantes en el GIMPS se clasifican en función de su productividad. Puedes encontrarnos bajo el nombre de UCLA_Math; normalmente estamos clasificados en algún lugar entre el puesto 40 y el 55.

Una sola máquina puede tardar meses en probar un solo número candidato, pero si se aprovecha la potencia de los ordenadores individuales conectados a Internet en todo el mundo, se puede avanzar rápidamente.

Q. ¿Cuáles son las probabilidades de descubrir un primo de Mersenne?

A. Según el proyecto GIMPS, la probabilidad de que cualquier número candidato resulte ser un primo de Mersenne es de 1 entre 150.000.

Q. ¿Cómo se comprueban los números para ver si son primos de Mersenne?

A. Hay muchos números de la forma 2P- 1, pero sólo unos pocos de ellos son primos de Mersenne. Hay una serie de técnicas para probar estos números para ver si son primos de Mersenne, pero el método inicial es tratar de factorizar el exponente candidato, P, y luego tratar de factorizar el primo candidato, 2P-1, utilizando algunos primos pequeños.

Hay un algoritmo de 75 años de antigüedad llamado Prueba Lucas-Lehmer que es ampliamente reconocido como la mejor herramienta para probar Primas Mersenne. El programa Prime95 utiliza ampliamente este método, así como algunos otros. Una explicación va más allá del alcance de este documento, pero el lector interesado puede obtener más información aquí.

Q. ¿Por qué busca la gente los primos Mersenne? ¿Para qué sirven?

A. Por las mismas razones que la gente escala montañas, navega por mares desconocidos y explora el cosmos. Es un reto. Es emocionante superar los límites de las matemáticas computacionales y buscar algo desconocido que crees que está ahí fuera. Además, a diferencia de los antiguos exploradores, nosotros podemos sentarnos en cómodas sillas de oficina mientras buscamos.

Esto no quiere decir que los números primos de Mersenne no tengan valor matemático. Sin duda son valiosos en el campo de la criptografía y pueden tener otros usos aún por descubrir.

El investigador de números primos Chris Caldwell profundiza en esta cuestión en su artículo "¿Por qué la gente encuentra estos números primos?".

Q. Aparte del reto, ¿por qué decidió participar?

A. Como ha ocurrido en muchos otros sitios, nos dimos cuenta de que nuestro gran laboratorio informático PIC/Math (75 puestos) sólo utilizaba una fracción de la potencia de CPU disponible. En lugar de desperdiciar todos esos ciclos, estudiamos varios proyectos de computación distribuida y decidimos que GIMPS era el más adecuado para nosotros. Además de la idoneidad de que GIMPS fuera un proyecto basado en Matemáticas, encontramos que estaba muy bien escrito y no interfería con los usuarios de ordenadores de pregrado (esto no era cierto de algunos de los otros proyectos de software que investigamos).

El Programa de Informática (PIC) atrae a estudiantes de todo el campus, por lo que era importante para nosotros que cualquier proyecto informático del laboratorio fuera comprensible para todos. GIMPS encajaba a la perfección en este caso y, además, pensamos que la competición informal entre los centros GIMPS sería interesante para nuestros estudiantes y aumentaría su conocimiento de las Matemáticas Computacionales.

Q. ¿Qué hicieron para organizarlo? ¿Fue complicado?

A. El software GIMPS Prime95 es muy sencillo desde el punto de vista de la administración del sistema. Es fácil de instalar y no requiere mantenimiento.

El software Prime95 envía actualizaciones periódicas sobre su estado de procesamiento a los ordenadores centrales de Primenet. Si el equipo en el que se ejecuta se cae, los cálculos se reanudarán donde se quedaron cuando el equipo vuelva a funcionar. Si una caja individual está fuera de servicio durante un período prolongado, Primenet recuperará el número y lo asignará a otra persona, y asignará un nuevo número cuando la máquina vuelva a estar en servicio.

Q. ¿Cómo funciona la verificación?

A. Cuando se encuentra un número primo de Mersenne, no se hace un anuncio formal hasta que una tercera parte independiente valida la afirmación. Con números excepcionalmente grandes como éstos, siempre hay una pequeña posibilidad de que se produzca un problema computacional con el algoritmo utilizado, o con la CPU del propio ordenador (el Problema del punto flotante de Intel es un ejemplo clásico de esto).

Debido a estos problemas potenciales, los Primeros Mersenne son siempre validados usando un algoritmo completamente diferente en un ordenador con una arquitectura diferente. La verificación puede llevar dos semanas o más.

Q. ¿Cuándo se produjo el descubrimiento? ¿Qué tipo de ordenador se utilizó?

A. El cebador Mersenne de la UCLA se descubrió el 23 de agosto de 2008 en un ordenador llamado zeppelin.pic.ucla.edu, un Dell Optiplex 745 con Windows XP y una CPU Intel Core 2 Duo E6600 a 2,4 GHz. El nombre "zeppelin" formaba parte de nuestra serie de ordenadores Classic Rock Band.

Q. ¿Qué es eso de los premios en metálico?

A. La Electronic Frontier Foundation (EFF), la principal organización de defensa de las libertades civiles en Internet, patrocina los Cooperative Computing Awards. Estos premios pretenden "animar a los usuarios de Internet a contribuir a la resolución de grandes problemas científicos" y están dotados con premios en metálico cuando se alcanzan determinados objetivos.

La EFF tiene un premio permanente de 100.000 dólares para el primer número primo de 10 millones de dígitos que se descubra. El primo Mersenne de la UCLA tiene casi 12,9 millones de dígitos y cumple los criterios del premio. Una vez publicados los resultados formales en una revista adecuada, se concederá el premio. Esto ocurrirá como muy pronto en 2009.

Por acuerdo previo, sólo el 50% del premio se destinará al descubridor del primo de 10 millones de dígitos. El 25% se destinará a obras benéficas y, en reconocimiento de la naturaleza colaborativa del GIMPS, la mayor parte del 25% restante irá a los descubridores de otros primos de Mersenne, con una pequeña cantidad para el propio GIMPS.

Q. ¿Qué es eso que he oído sobre un póster? ¿Habrá uno para el primo Mersenne de UCLA?

A. Durante años, una empresa llamada Perfectly Scientific ha estado creando un póster del mayor número primo explícito conocido en la actualidad. El póster de M44, producido en 2006, utilizaba un tipo de letra extremadamente pequeño para comprimir 9,8 millones de dígitos en un único póster de 29 por 40 pulgadas. La empresa ofrecía una lupa de joyero junto con el póster para que pudiera leerse.

Richard Crandall, de Perfectly Scientific, se puso en contacto conmigo hace poco para informarme de que ya se puede comprar el póster de Mersenne Prime de la UCLA. Cuesta 99 dólares, sin marco, y está disponible en el sitio web de Perfectly Scientific.

Q. ¿Qué pasa con el otro Mersenne Prime descubierto recientemente?

A. Dos semanas después de que se descubriera el primo Mersenne de la UCLA, otro primo Mersenne de más de 10 millones de dígitos fue descubierto por Hans-Michael Elvenich en Alemania. Con 11,2 millones de dígitos, es aproximadamente un 10% más pequeño que el primo Mersenne de la UCLA.

No es la primera vez que se descubren primos de Mersenne fuera de orden. En 1988, Colquitt y Welsh descubrieron un primo de Mersenne más pequeño que los dos anteriores, descubiertos en 1983 y 1985.

En el momento de escribir este artículo, el primo de Mersenne de la UCLA se considera el 46º primo de Mersenne (llamado "M46" por la comunidad que busca primos de Mersenne), aunque fue el 45º descubierto. El primo Mersenne de Elvenich es M45, ¡pero fue el 46 descubierto!

Como complicación adicional, no todos los primos potenciales entre M39 (descubierto en 2001) y el primo Mersenne de la UCLA han sido probados, por lo que podría haber más encontrados en ese rango en una fecha futura. Si es así, el primo de la UCLA será "ascendido" a M47.

Mi más sincero agradecimiento a todas las personas que me han ayudado con este documento. Gracias a Sal Zapien y Mary Margaret Smith por su excelente corrección de pruebas, y a Jim Carter por su ayuda con la estructura y la organización. En especial, quiero dar las gracias a Robert Johnson, que se aseguró de que todas y cada una de mis afirmaciones se ajustaban a la realidad y corrigió amablemente mis numerosos conceptos erróneos.

Este FAQ creado y mantenido por Edson Smith. Última actualización julio, 2018.

Original article: www.math.ucla.edu/~edson/prime/

By Jose Melgarejo

July 24, 2023

Read post
Chicks Gold Logo [email protected] ENG / USD
Chicks Gold
About Us
Blog
Bug Bounty
More
Buy Game Assets
Buy Game Currency
Buy Game Items
Buy Game Accounts
Buy Game Services
Buy Game Skins
Buy Game Gift Card
Buy Game Unique Names
Sell Game Assets
Sell Game Currency
Sell Game Items
Sell Game Accounts
Sell Game Skins
Swap Game Assets
Swap Games
Support
Contact Us
FAQ
Sitemap
Legal
Privacy Policy
Terms of Service
Copyright Policy
More
Editorial Policy
Code of Ethics
Complaints Policy
Disclaimer
Accessibility
Modern Slavery Statement
Trustpilot Reviews
4.3/5
Chicks Gold
About Us
Blog
Bug Bounty
More
Buy Game Currency
Buy Game Items
Buy Game Accounts
Buy Game Services
Buy Game Skins
Buy Game Gift Card
Buy Game Unique Names
Sell Game Currency
Sell Game Items
Sell Game Accounts
Sell Game Skins
Swap Games
Buy Game Currency
Buy Game Items
Buy Game Accounts
Buy Game Services
Buy Game Skins
Buy Game Gift Card
Buy Game Unique Names
Sell Game Currency
Sell Game Items
Sell Game Accounts
Sell Game Skins
Swap Games
Buy Game Assets
Buy Game Currency
Buy Game Items
Buy Game Accounts
Buy Game Services
Buy Game Skins
Buy Game Gift Card
Buy Game Unique Names
Sell Game Assets
Sell Game Currency
Sell Game Items
Sell Game Accounts
Sell Game Skins
Swap Game Assets
Swap Games
Support
Contact Us
FAQ
Sitemap
Legal
Privacy Policy
Terms of Service
Copyright Policy
More
Editorial Policy
Code of Ethics
Complaints Policy
Disclaimer
Accessibility
Modern Slavery Statement
Editorial Policy
Code of Ethics
Complaints Policy
Disclaimer
Accessibility
Modern Slavery Statement
Editorial Policy
Code of Ethics
Complaints Policy
Disclaimer
Accessibility
Modern Slavery Statement
Social
Trustpilot Reviews
4.3/5
Copyright © 2026, ChicksGold.com All Rights Reserved