Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Recopilacion Agromatica 2P

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 30

MODELADOS DE CULTIVOS.

DIAGRAMAS DE FLUJO.
Diagramas de flujo
Toda representación gráfica, de cualquier tipo que sea, se caracteriza por:

Sencillez. Un método gráfico de diseño de algoritmo debe permitir la construcción de estos de manera fácil y sencilla.

Claridad. Cuando un algoritmo es representado por un método gráfico debe estar lo suficientemente claro para un fácil reconocimiento de
todos los elementos por parte de otra persona distinta de la que lo diseñó.

Normalización. Tanto los diseñadores de programas como los usuarios que necesitan la documentaci on de estos deben reconocer y utilizar
las mismas normas de documentación.

Flexibilidad. Todo método gráfico de representación debe permitir, sin grandes dificultades, posteriores modificaciones de algunas partes de
un algoritmo y la inserción de alguna nueva.

Un diagrama de flujo es la representación gráfica de un algoritmo. Es la representación detallada en forma gráfica de como debe
realizar los pasos, por ejemplo, una computadora para producir resultados.

Los diagramas de flujo son comunes en varios dominios técnicos y se usan para poner en orden los pasos a seguir o Ias acciones a realizar. Su
principal ventaja es que tienen Ia capacidad de presentar la información con gran claridad, ademas de que se necesitan relativamente pocos
conocimientos previos para entender los procesos y/o el objeto deI modelado. Por ejemplo:

Leer una variable x y calcular el cuadrado de x


Sistemas de Información – Generalidades.

Los sistemas de información aparecen con la llegada de la informática a las empresas, por una parte debido
a la evolución de las teorías de la administración y por otra, debido a la llegada de la computación a las propias
empresas. El propósito es prestar atención a las demandas de información de una organización, con el fin de
apoyarse en ciertos elementos para el desarrollo de actividades, tomar decisiones o cambiar profundamente la
manera de gestionar sus negocios (Karen Cohen & Lares Asín, 2000). El uso de tecnologías para llevar a cabo
esta gestión lo convierte en un recurso diferenciador respecto al resto de empresas. Estos elementos son:

• El equipo computacional: el hardware necesario para que el sistema de información pueda operar.

• El recurso humano que interactúa con el Sistema de Información, el cual está formado por las personas
que utilizan el sistema.

Por tanto, un sistema de información se podría definir como el conjunto de funciones y componentes
(físicos y humanos) interrelacionados entre sí, cuyo objetivo es la obtención, procesamiento,
almacenamiento y salida de información que facilite la toma de decisiones en una organización (Avison &
Fitzgerald, 2003).

Un sistema de información agrícola puede definirse como un sistema en el que la información agrícola se
genera, transforma, transfiere, consolida, recibe y retroalimenta de tal manera que estos procesos funcionan
sinérgicamente para apuntalar la utilización del conocimiento por parte de los productores agrícolas (Roling,
1988). En consecuencia, un sistema de información agrícola consta de componentes (subsistemas), procesos
relacionados con la información (generación, transformación, almacenamiento, recuperación, integración,
difusión y utilización), mecanismos del sistema (interfaces y redes) y operaciones del sistema (control y gestión).
La información agrícola se considera un insumo esencial para la educación, la investigación y el desarrollo
agrícolas y las actividades de extensión. Los diferentes tipos de usuarios requieren diferentes tipos de información
para diferentes propósitos. Los usuarios potenciales de la información agrícola incluyen a los responsables de la
toma de decisiones del gobierno, los responsables de la formulación de políticas, los planificadores, los
investigadores, los profesores y los estudiantes, los directores de programas, los trabajadores de campo y los
agricultores (Zaman, 2002).

Caracterización

Un SI tambien es:

Conjunto de componentes interrelacionados que recolectan (o recuperan), procesan, almacenan y


distribuyen información para:

 Apoyar la toma de decisiones y el control de una organización.


 Ayudar a gerentes y trabajadores a analizar problemas.

 Visualizar asuntos complejos.

 Crear productos nuevos. (Laudon y Laudon, 2004)

Conjunto de personas, datos, procesos y tecnología de la información que interactúan para recoger,
procesar, almacenar y proveer la información necesaria para el correcto funcionamiento de la organización.

 Personas: Directivos, usuarios, analistas, diseñadores,

 Datos: materia prima para crear información útil

 Procesos: actividades de empresa que generan información

 Tecnologías de información: hardware y software que sostienen a los anteriores tres componentes.
(Whitten, Bentley y Dittman, 2004)

Un Sistema de Información realiza cuatro actividades básicas:

Entrada de información: proceso en el cual el sistema toma los datos que requiere.

Almacenamiento de información: pude hacerse por computadora o archivos físicos para conservar la
información.

Procesamiento de la información: permite la transformación de los datos fuente en información que puede
ser utilizada para la toma de decisiones

Salida de información: es la capacidad del sistema para producir la información procesada o sacar los
datos de entrada al exterior.

Sistemas de Información Agrícola

La información agrícola interactúa e influye en la productividad agrícola de diversas formas. Puede ayudar a
informar decisiones sobre la tierra, el trabajo, la ganadería, el capital y la gestión. Podría decirse que la
productividad agrícola puede mejorarse mediante información y conocimientos pertinentes, fiables y útiles. Por
lo tanto, la creación de información agrícola (por servicios de extensión, investigación, programas de educación
y otros) a menudo es gestionada por organizaciones agrícolas que crean sistemas de información para difundir
información a los agricultores para que los agricultores puedan tomar mejores decisiones a fin de aprovechar las
oportunidades del mercado. y gestionar cambios continuos en sus sistemas de producción.

Un sistema es un grupo de componentes que interactúan, que operan juntos con un propósito común (Spedding
1988). Según Checkland (1981), un sistema es un modelo de una entidad. Se caracteriza por su estructura
jerárquica, propiedades emergentes, comunicación y control. El término subsistema es equivalente a sistema,
contenido dentro de un sistema más grande. El enfoque del sistema es una forma de ver una entidad y tratar los
problemas con el fin de identificar y mejorar el sistema en particular. Se puede aplicar a cualquier tema (Spedding
1988).

El enfoque de sistema también ha mostrado un alto potencial para ofrecer un marco conceptual para analizar,
administrar y mejorar un sistema actual y diseñar uno mejor (Cavallo 1982). Los modelos de sistema social se
pueden utilizar como una herramienta para analizar los requisitos de información de los actores involucrados en
un sistema (Checkland y Holwell 1998).

En la teoría general de sistemas, un sistema de información se acepta como un sistema, automatizado o manual,
que comprende personas, máquinas y / o métodos organizados para recopilar, procesar, transmitir y difundir datos
que representan información. Ciborra (2002: 5) propone que los sistemas de información "se ocupan del
despliegue de las tecnologías de la información en las organizaciones, instituciones y la sociedad en general". Por
lo tanto, los sistemas de información también son sistemas sociales cuyo comportamiento está fuertemente
influenciado por los objetivos, valores y creencias de individuos y grupos, así como por el desempeño de la
tecnología (Angel y Smithson 1991).

La información procesada se convierte en conocimiento cuando un individuo la conoce (comprende) y la evalúa.


Por lo tanto, un sistema de conocimiento es más individualizado y enfatiza la cognición personal (Demiryurek
2000). Sin embargo, grupos de personas pueden compartir un sistema de conocimiento común, como un sistema
de conocimiento indígena (Brokensha et al. 1980). Wilson (2000) define claramente el comportamiento de la
información como "la totalidad del comportamiento humano en relación con las fuentes y canales de información,
incluida la búsqueda de información activa y pasiva y el uso de la información. Por lo tanto, incluye la
comunicación cara a cara con otros, como así como la recepción pasiva de información como, por ejemplo, ver
anuncios de televisión, sin ninguna intención de actuar sobre la información proporcionada ”.

Röling defiende la utilidad del enfoque del sistema para analizar la información agrícola y define un sistema de
información agrícola como:

... un sistema en el que la información agrícola se genera, transforma, consolida, recibe y retroalimenta ...
para respaldar la utilización del conocimiento por los productores agrícolas.

En consecuencia, un sistema de información agrícola consta de componentes(subsistemas), procesos relacionados


con la información (generación, transformación, almacenamiento, recuperación, integración, difusión y
utilización), mecanismos del sistema (interfaces y redes) y operaciones del sistema (control y gestión). Además,
el análisis del sistema de información agrícola en un sistema agrícola específico puede proporcionar la
identificación de los componentes básicos y la estructura del sistema, las diferentes fuentes de información
utilizadas por los diferentes componentes del sistema, la comprensión de qué tan exitoso funciona el sistema y
cómo mejorar el rendimiento del sistema (gestión del sistema) (Demiryurek 2000). Este enfoque también es útil
para identificar posibles incumplimientos y mejorar la coordinación entre los componentes (es decir, la gestión
de la información). Además, el intercambio de información (comunicación) a través de redes entre los
componentes del sistema es de vital importancia para la generación de tecnología y las transferencias de
información exitosas (Rogers 1995; Ramirez 1997; Garforth 2001; Leeuwis 2004).

Una red de comunicación consta de individuos interconectados que están vinculados por flujos de información
modelados, y su análisis identifica la estructura de comunicación en un sistema (Rogers y Kincaid 1981). Rogers
(1995) enfatiza que el intercambio de información (comunicación) y su difusión tienen lugar dentro de un sistema
social. Actores como individuos, grupos informales, organizaciones y subsistemas son los miembros del sistema
y la estructura del sistema social y los roles de sus actores o miembros afectan el proceso de difusión.

Checkland desarrolló una metodología de sistema blanda, que permite a un grupo de actores que se enfrentan a
un problema común resolverlo en un proceso de aprendizaje colectivo. Esto es para diseñar un sistema de
actividad humana para la acción colectiva. El sistema blando es una construcción social y, por lo tanto, actores
como investigadores, extensionistas y agricultores normalmente no pueden considerarse como un sistema. Pueden
formarse como un sistema si se vinculan y contribuyen al rendimiento del sistema. Algunos autores critican el
enfoque sistémico del sistema de información agrícola y especialmente la difusión del conocimiento y su
utilización final. Defienden un enfoque diferente, a saber, una visión orientada al actor (Long 1984; Leeuwis et
al. 1991; Leeuwis 2004). Destacan que el conocimiento y la información son los elementos de un único proceso
en el que la información se internaliza para convertirse en parte del conocimiento. Por tanto, es difícil distinguir
entre conocimiento e información. El enfoque orientado al actor ve los procesos de conocimiento como procesos
sociales que pueden conducir a conflictos entre grupos sociales o percepciones e intereses comunes. Ramkumar
(1995) desarrolló un enfoque de sistema de información orientado a los actores que considera las características
sociales, económicas y culturales de los agricultores. Este enfoque ayuda a comprender la complejidad de los
sistemas de información de los agricultores y sus relaciones con otros sistemas. A su vez, el enfoque orientado al
actor también fue criticado por su base más individual y su enfoque principal en la interacción social específica.
Por lo tanto, el sistema de información agrícola es un enfoque holístico y se puede utilizar para identificar los
componentes de un sistema, analizar su desempeño y diseñar uno mejor. Aunque la investigación sobre los
sistemas de información y su probable impacto en las explotaciones agrícolas es vital para una recomendación
política sólida, pocos estudios han abordado la relación entre las granjas (especialmente las lecheras) y las fuentes
de información. Algunas de las investigaciones importantes relacionadas se resumen aquí. Uno de los primeros
estudios realizados por Rolls et al. (1994) analizó el sistema de información para pequeños agricultores en
Malasia. Pusieron a los agricultores en el centro del sistema de información y encontraron sus roles como
productores, inventores y comunicadores. Hubo un considerable intercambio de información entre los actores del
sistema y los agricultores, en particular, participaron activamente en la difusión de información y tecnología
innovadoras. De manera similar, Ramkumar (1995) analizó los sistemas de información de los productores de
leche en dos aldeas de la India y encontró que el sistema de información de cada productor era único. Había pocos
vínculos entre agricultores y no agricultores dentro y fuera de las aldeas. Los medios impresos y los trabajadores
de extensión lácteos rara vez se utilizaron como fuentes de información, pero el veterinario privado y el secretario
de la cooperativa lechera fueron ampliamente utilizados. Los agricultores funcionaron como difusores y usuarios
de información. La toma de decisiones por parte de los agricultores se volvió más compleja debido a la
transferencia de información inadecuada e ineficiente de los servicios de investigación y extensión. Esto obligó a
los agricultores a capitalizar sus conocimientos prácticos para encontrar soluciones adecuadas. Por otro lado,
Garforth & Usher (1996) revisaron varios modelos de procesos de sistemas de información como el desarrollo y
la transferencia. Destacaron que estos procesos demostraron que la información no fluye simplemente, sino que
se transforma y adapta continuamente a través de la comunicación. Los modelos de sistemas permitieron a los
investigadores alejarse de las concepciones unilineales del desarrollo de la información y la tecnología y abordar
de manera más eficaz la diversidad de fuentes de información disponibles para los usuarios potenciales. Uno de
los principales problemas para los usuarios y desarrolladores de sistemas de información a nivel de granja y de
monitoreo del estado de los animales es determinar los factores críticos de éxito y las necesidades de información
de los agricultores, que generalmente se basan en sus objetivos y estrategias de manejo. Por tanto, Huirne et al.
(1997) analizaron los factores críticos de éxito y las necesidades de información en las granjas lecheras en los
Países Bajos y EE. UU. (Michigan) y encontraron que variaban ampliamente entre las regiones, pero eran
consistentes a lo largo del tiempo si se analizaba a los agricultores como grupo. Sin embargo, se encontraron
diferencias significativas cuando los agricultores fueron analizados individualmente, y este bajo nivel de
consistencia se debió principalmente al suministro de información a nivel de finca. El factor crítico más
importante fue el financiamiento (es decir, el resultado neto de la finca, el margen, los costos y la ganancia neta),
seguido por la producción de leche y piensos y la comercialización. Ortiz (1997) analizó un sistema de
información y conocimiento agrícola e investigó la diseminación de información relacionada con el manejo
integrado de plagas entre los productores de papa, investigación y extensión en el Perú. Se encontró que el manejo
de plagas relacionado con la papa es un tipo de tecnología que demanda de los agricultores el manejo de tipos
más complejos de información y conocimiento. Esto creó para los agricultores la necesidad de comprender los
principios tecnológicos del manejo integrado de plagas. El investigador concluyó que la difusión de información
requería ser incluida dentro de un sistema de aprendizaje para que los agricultores pudieran adquirir los
conocimientos adecuados y utilizarlos para tomar decisiones de una manera más flexible. Además, la formación
del sistema fue facilitada por fuentes personales y organizacionales con presiones internas y externas y entre la
demanda y el suministro de información de manejo integrado de plagas. Demiryurek (2000) también utilizó la
teoría del sistema de información agrícola para analizar los sistemas de información actuales utilizados por los
productores de avellanas orgánicas y no orgánicas y encontró que los sistemas de información para los dos grupos
de agricultores estaban en gran parte separados. La conversión a la producción orgánica claramente exigió
cambios en el sistema de información para permitir a los productores adquirir los nuevos conocimientos y
habilidades apropiados. Los productores orgánicos habían utilizado más fuentes de información con más
frecuencia y de manera más activa que los productores no orgánicos. Rolls y col. (1999) analizaron los sistemas
de información en la agricultura checa. Los sistemas de información parecían ser la construcción de las
características personales de los agricultores. Los agricultores parecían considerar la información como un bien
social para intercambiar y debatir en las redes sociales. Los materiales impresos, los espectáculos agrícolas y las
demostraciones fueron fuentes importantes de información agrícola, y los consultores también obtuvieron
reconocimiento como componentes valiosos del sistema de información. Rolls y Slavik (2003) también
investigaron los cambios en los sistemas de información en la agricultura checa a lo largo del tiempo. Se
cambiaron las fuentes reales de información, aunque aproximadamente la mitad permaneció igual. Los medios
impresos siguieron siendo los más importantes, las fuentes sociales disminuyeron en importancia y las fuentes
profesionales, como consultores, investigación y fuentes universitarias, aumentaron. La transferencia horizontal
de información entre granjas similares siguió siendo muy importante. Los investigadores sugieren que se
necesitaban nuevas fuentes de información relacionadas con la información agrícola y predijeron que las bases
de datos computarizadas se utilizarán cada vez más en el futuro. Naidoo y Rolls (2000) también investigaron el
uso de la información agrícola por los pequeños ganaderos en Mauricio y encontraron que los agricultores
manejaban la información como recurso productivo. Las características personales y las prácticas ganaderas de
los agricultores fueron las principales influencias en el manejo de la información. Las prácticas se aprendieron
principalmente de los ancianos de la familia. Los consejos de extensión solo se recordaron en parte o se
rechazaron, ya que la información de esta fuente a veces no era útil.

Sistemas de Información Geográficos y Agricultura de Precisión

La agricultura es la industria básica de la nación, y la agricultura de precisión representa la dirección del desarrollo
agrícola, es también el punto focal de la investigación agrícola. En resumen, la agricultura de precisión es una
idea de gestión agrícola basada en la observación y respuesta a las variaciones intra campo. Integra la tecnología
de “3S”, la tecnología de redes de computadoras y comunicación, y la ciencia agrícola como agronomía, ecología,
fisiología vegetal y ciencia del suelo y ofrece respuestas a una serie de sistemas y problemas clave. Y el sistema
de producción agrícola tradicional se puede mejorar a una etapa altamente eficiente y automática, caracterizada
por la recopilación rápida de información, el diagnóstico a tiempo y la gestión eficaz del campo, que es el requisito
básico de la agricultura de precisión para el futuro. Esto permite un control eficaz de la gestión de cultivos en
todas las etapas de crecimiento. Por tanto, la agricultura de precisión será la tendencia de desarrollo de la
agricultura internacional del nuevo siglo. En un sentido general, la tecnología “5S” es la abreviatura de GIS
(sistema de información geográfica), GPS (sistema de posicionamiento global), RS (teledetección), SDDS
(sistema de apoyo a decisiones espaciales) y ES (sistema experto). En cierto sentido, la tecnología “5S” constituye
la parte principal de la geografía y la tecnología modernas.

GIS es un poderoso sistema que captura, almacena, renueva, analiza, administra y presenta datos que hacen
referencia a datos de ubicación geográfica. Comúnmente, el SIG tiene una formidable función de edición de
mapas y análisis espacial.

El GPS es un sistema satelital de navegación global basado en el espacio que proporciona información confiable
de ubicación y tiempo en todo clima y en todo momento y en cualquier lugar de la Tierra o cerca de ella, cuando
y donde hay una línea de visión sin obstáculos para cuatro o más satélites GPS.

RS es un método y una herramienta para recopilar y renovar información espacial. RS puede obtener una gran
cantidad de información de forma rápida y precisa. GPS y RS son la principal fuente de información espacial y
de atributos que necesita GIS.

SDDS es un sistema interactivo y basado en computadora diseñado para ayudar a un usuario o grupo de usuarios
a lograr una mayor efectividad en la toma de decisiones mientras se resuelve un problema espacial
semiestructurado.

ES es un sistema que utiliza una base de conocimientos de experiencia humana para la resolución de problemas,
o aclara incertidumbres donde normalmente se necesitaría consultar a uno o más expertos humanos.

El sistema de información de agricultura de precisión basado en 5S es un sistema de información integrado que


está destinado a monitorear la información de cultivos, tierras y suelos y adquirir y analizar periódicamente
información sobre el crecimiento de los cultivos, por lo que puede ofrecer sugerencias de cultivo y manejo a los
usuarios.

El sistema basado en 5S no se limita solo a las tecnologías “5S”; 5S es solo una declaración general. En el sistema,
el GPS se utiliza principalmente para el posicionamiento en tiempo real, proporcionando coordenadas espaciales
para los datos reales del terreno de la teledetección, construyendo una base de datos agrícola en vivo y
desempeñando un papel en la verificación de los datos agrícolas de teledetección al mismo tiempo. RS se utiliza
principalmente para proporcionar fuentes de información y obtener información. El SIG se utiliza principalmente
para gestionar, consultar y analizar datos agrícolas espaciales, hacer y generar mapas temáticos agrícolas y mapas
estadísticos con su potente producción de datos y trabajos de cartografía. SDSS y ES se utilizan principalmente
para ayudar a los tomadores de decisiones a tectónica, verificar, cambiar repetidamente y desarrollar modelos, y
a los tomadores de decisiones auxiliares para problemas agrícolas en la toma de decisiones con su fuerte capacidad
analítica.
MONOGRÁFICO
MÈTODE Science Studies Journal (2014). Universitat de València.
DOI: 10.7203/metode.83.3590
Artículo recibido: 29/04/2014, aceptado: 02/06/2014.

MACRODATOS Y ESTADÍSTICA
LA PERSPECTIVA DE UN ESTADÍSTICO

DAVID ROSSELL

Los macrodatos (big data) representan un recurso sin precedentes para afrontar retos científicos, eco-
nómicos y sociales, pero también incrementan la posibilidad de caer en conclusiones engañosas. Por
ejemplo, el uso de enfoques basados exclusivamente en datos y que se despreocupan de compren-
der el fenómeno en estudio, que se orientan a un objetivo escurridizo y cambiante, que no tienen en
cuenta problemas cruciales en la recopilación de datos, que resumen o «cocinan» inadecuadamente
los datos y que confunden el ruido con la señal. Repasaremos algunos casos exitosos e ilustraremos
cómo pueden ayudar los principios de la estadística a obtener una información más fiable de los datos.
También abordaremos los retos actuales que requieren estudios metodológicos dinámicos como las
estrategias de eficiencia computacional, la integración de datos heterogéneos, extender los funda-
mentos teóricos a cuestiones cada vez más complejas y, quizás lo más importante, formar una nueva
generación de científicos capaces de desarrollar e implantar estas estrategias.

Palabras clave: macrodatos, estadística, estudios de caso, trampas, retos.

■ ¿QUÉ SON LOS MACRODATOS? drones registra datos 40 millones de veces por segun-
do para comprobar las teorías de la física. Los sitios
En los últimos años se ha producido un incremento web generan cada día millones de recomendaciones, y
significativo en nuestra capacidad de recopilar, alma- comparan nuevos productos y sus precios. Los datos
cenar y compartir datos. Según IBM, el 90 % de los da- pueden ayudar a gestionar ciudades o recursos natu-
tos del mundo se ha generado en los últimos dos años rales, a estudiar el cambio climático o a promover el
(International Business Machines Corporation, 2011). desarrollo de regiones. Las notas en blogs y redes so-
Estos datos proceden de internet (búsquedas, redes so- ciales se aprovechan para diseñar estrategias políticas
ciales, blogs, imágenes), teléfonos y para estudiar cómo se difunden
de última generación, estudios las ideas.
científicos (genómica, imágenes «LA EXPERIENCIA HA
Gracias al amplio alcance de
cerebrales, epidemiología, me- todo este potencial, los medios
ENSEÑADO A LOS
dio ambiente), negocios (datos de de comunicación, el mundo aca-
clientes, transacciones, indicado- ESTADÍSTICOS QUE LOS démico y el de los negocios han
res financieros), administración DATOS PUEDEN SER acogido los macrodatos con un
(población, salud, clima, sensores ENGAÑOSOS Y, LO QUE ES entusiasmo rayando a veces el
automáticos) y otras fuentes. PEOR, DAR UNA SENSACIÓN
sensacionalismo. Términos como
La importancia estratégica de avalancha de datos o tsunami se
ERRÓNEA DE OBJETIVIDAD»
los macrodatos no radica en la han hecho comunes. El Foro Eco-
cantidad sino en las aplicacio- nómico Mundial de 2012 declaró
nes potenciales que ofrecen. Por los datos como un nuevo tipo de
ejemplo, la caracterización de enfermedades com- activo económico comparable a la moneda o al oro
plejas a escala molecular combinadas con el historial (Foro Económico Mundial, 2012). Las profesiones
médico y de tratamiento y con pruebas diagnósticas o relacionadas con el manejo de datos encabezan cons-
de imagen ofrece oportunidades sin precedentes para tantemente muchas clasificaciones. Dejando aparte el
personalizar la medicina. El Gran Colisionador de Ha- bombo publicitario, revisaremos tanto los logros como

MÈTODE
MONOGRÁFICO
Los números de la ciencia

las limitaciones y destacaremos las lecciones apren-


didas y los retos pendientes. Aunque los macrodatos
requieren un enfoque pluridisciplinar, adoptaremos un
punto de vista estadístico. La estadística es una disci-
plina dedicada específicamente a recopilar, analizar e
interpretar datos. Es decir, nos lleva de las preguntas
a los datos, de los datos a la información y de la in-
formación al conocimiento y a la toma de decisiones.
Puede parecer sorprendente, pues, que los estadísticos
hayan sido relativamente cautelosos a la hora de aco-
ger los macrodatos como una fuerza todopoderosa. Yo
creo que la explicación es sencilla. La experiencia ha
enseñado a los estadísticos que los datos pueden ser en-
gañosos y, lo que es peor, dar una sensación errónea de
objetividad. Aunque sean poderosos, los macrodatos
también abren la puerta a muchas confusiones. Debido
a la variedad de aplicaciones (los macrodatos a menu-
do se definen como las tres V: volumen, velocidad y
variedad), no podremos abarcar todo lo referente a los
macrodatos, por eso me limitaré a abordar algunos de
Maximilien Brice (2009 CERN)

los principales problemas y a poner algunos ejemplos.

■ LOS DATOS Y EL PROCESO SUBYACENTE


El relato de cómo el gerente de béisbol Billy Beane
aplicó indicadores de rendimiento y análisis de datos La importancia estratégica de los datos no radica en la cantidad sino
para formar un equipo competitivo (Lewis, 2003) se en los usos potenciales. Por ejemplo, el Gran Colisionador de Ha-
ha convertido ya en todo un clásico contemporáneo de drones registra datos 40 millones de veces por segundo para poner
los casos de éxito en el aprovechamiento de los datos, a prueba las teorías de la física.
tanto que incluso dio lugar a una
película de Hollywood bastante que ilustra un posible problema de
popular. El mérito más notable de los macrodatos. Si bien es cierto
Bean es que su equipo jugaba me- «LAS NUEVAS TECNOLOGÍAS que las opiniones no contrasta-
jor que rivales con mayor presu- SON INÚTILES A MENOS das con datos pueden conducir a
puesto y dirigidos por expertos en QUE CIENTÍFICOS conclusiones erróneas, también
béisbol. Los sondeos electorales BRILLANTES PLANTEEN
los análisis ciegos llevan a error
británicos (Curtice y Firth, 2008) con frecuencia. Disponer de datos
PREGUNTAS RELEVANTES
y estadounidenses (Silver, 2012), fiables y de sólidos conocimientos,
cuya extraordinaria precisión tri- E INTERPRETEN LOS lejos de oponerse, se complemen-
turó las previsiones de los analis- RESULTADOS EN tan. En los anteriores ejemplos, las
tas políticos, son otros éxitos re- EL CONTEXTO QUE predicciones tuvieron éxito porque
cientes. Otros casos son los de las estudiaban sistemas fundamental-
CORRESPONDA»
predicciones meteorológicas que mente reproducibles, e implicaban
anunciaban catástrofes naturales la comprensión del fenómeno que
(Silver, 2012), o la explosión de estudiaban. Las variables elegidas
las tecnologías -ómicas en las que se basan muchos, si para predecir el rendimiento en el béisbol se prestaban
no la mayoría, de los avances recientes en biomedicina. a una interpretación natural de la materia de estudio. Y
Estas historias pueden haber dado la falsa impresión los pronósticos de Silver aprovechaban sus conocimien-
de que con los datos basta. Por ejemplo, en una entrevista tos sobre la política norteamericana. Las predicciones
publicada por The New York Times se afirmaba que los meteorológicas se basan en simulaciones informáticas
datos pueden reemplazar la experiencia y la intuición, lo y leyes físicas, que los meteorólogos corrigen posterior-
que facilita un enfoque más científico (Lohr, 2012). No mente para eliminar las imprecisiones sistemáticas. Las
podría estar menos de acuerdo con este punto de vista, nuevas tecnologías son inútiles a menos que científicos

MÈTODE
MONOGRÁFICO
Los números de la ciencia

CDC. Aunque GFT no lo pretendía, se ha convertido


en el buque insignia de la sustitución de los métodos
tradicionales por macrodatos. Sin embargo, Lazer et al.
(2014), entre otros, han averiguado que las predicciones
de GFT no son tan certeras. Aunque al principio eran
precisas, desde entonces las visitas reales siempre se
han sobreestimado. Predecir simplemente una semana
Leaders (Executive Sport Ltd)

a partir de los informes de los CDC de tres semanas


atrás da mejores resultados. Lazer et al. argumentan
que la caída en la precisión de GFT se debe sobre todo
a los cambios en el motor de búsqueda de Google. Este
ejemplo ilustra otra trampa importante. En el caso del
béisbol y en el resto de ejemplos anteriores, el proce-
El relato de cómo el gerente de béisbol Billy Beane aplicó indicado- so subyacente que genera los datos suele permanecer
res de rendimiento y análisis de datos para formar un equipo com-
petitivo se ha convertido ya en todo un clásico contemporáneo
constante a lo largo del tiempo. El béisbol tiene unas
de las historias de éxito del aprovechamiento de los datos, tanto reglas fijas, la intención de voto no varía mucho a corto
que incluso dio lugar a una película de plazo, y las leyes de la naturaleza
Hollywood de bastante éxito. son constantes. Por el contrario,
los cambios en los buscadores
brillantes planteen preguntas rele- «LA TEORÍA NOS ENSEÑA alteran el proceso de generación
vantes e interpreten los resultados QUE, EN PRINCIPIO, TENER de los datos que se introducen en
en el contexto que corresponda. MUCHOS DATOS SIEMPRE GFT y por consiguiente modifi-
Un mantra de la estadística can la relación con el resultado
ES BUENO. UNA TRAMPA
indica que la correlación no im- que intentamos predecir.
plica causalidad. Nathan Eagle TENTADORA CONSISTE EN Esta incertidumbre, en la li-
se adelantó en la predicción del FORZAR LOS DATOS HASTA teratura estadística, se conoce
cólera en Ruanda a partir de los QUE PAREZCAN APOYAR como sistema dinámico y re-
datos de movilidad que extrajo de UNA IDEA PRECONCEBIDA» quiere técnicas especiales para
las llamadas de teléfonos móviles incorporar su peculiar estructura
(Shaw, 2014). Eagle observó que y poder reflejar la incertidumbre
la movilidad estaba correlacio- de manera fidedigna. Las predic-
nada con los brotes de cólera y que, por tanto, podía ciones se basan en los datos observados y, por tanto,
ayudar a predecirlos. Después descubrió que la movili- un supuesto implícito es que los datos futuros serán
dad realmente predecía las inundaciones, que reducen similares o al menos evolucionarán de una forma pre-
la movilidad e incrementan a corto plazo el riesgo de visible. Cuando pueden darse cambios repentinos, la
brotes de cólera. Actualmente incorpora información confianza en nuestras predicciones disminuye. Consi-
sobre la actividad de las poblaciones en sus prediccio- deremos el fracaso a la hora de prever los impagos de
nes. No hay nada que pueda reemplazar a la compren- hipotecas en la Gran Recesión. El riesgo de impago se
sión del fenómeno que se estudia, es decir, el proceso calculaba a partir de los datos recopilados durante un
de generación de datos, para poder analizarlo. período de crecimiento económico generalizado. En
estos períodos el riesgo de que los individuos A y B
dejen de pagar sus hipotecas no presenta ninguna co-
■ DINÁMICA DE DATOS
rrelación en particular. Por tanto el riesgo de impagos
Los Centros de Control y Prevención de Enfermedades generalizados se considera bajo y aunque algunos indi-
(CDC) de los EE UU remiten semanalmente el núme- viduos dejen de pagar, seguramente otros continuarán
ro de visitas médicas por enfermedades de tipo gripal, siendo solventes. Sin embargo, en períodos de crisis
pero los resultados van con tres semanas de retraso, los impagos están estrechamente correlacionados. Si la
que es lo que cuesta procesarlos. Google Flu Trends economía va mal y el precio de la vivienda cae, mucha
(GFT) utiliza el número de búsquedas en Internet rela- gente se volverá insolvente a la vez y las posibilida-
cionadas con la gripe para predecir el eventual informe des de una crisis generalizada serán mucho mayores
de los CDC para la semana en curso, proporcionando (Gorton, 2009). Este ejemplo ilustra un sesgo conocido
un seguimiento en tiempo real que en una ocasión se como extrapolación. Incluso cuando sabemos algo so-
consideró más preciso que los informes de los propios bre el proceso de generación de datos, es arriesgado

MÈTODE
MONOGRÁFICO
Los números de la ciencia

hacer predicciones en situaciones en las que hay po-


cos o ningún dato disponibles. La mayoría de métodos
están diseñados para producir predicciones que sean
válidas en general, pero aunque la mayoría de las pre-
dicciones sean precisas, las que se desarrollan en es-
cenarios poco frecuentes (por ejemplo, pacientes con
una variante rara de una enfermedad) pueden fallar
completamente. Es necesario, por tanto, examinar cui-
dadosamente el problema que nos ocupa.

■ SEÑAL, RUIDO Y SESGO


La teoría nos enseña que, en principio, tener muchos
datos siempre es bueno. Con nuevos datos se incremen-
ta el potencial para obtener más información y, si este
no fuese el caso, siempre se podría descartar el dato.
No parece que tener más datos sea perjudicial. La pega
de este razonamiento es que en la práctica no descarta-
mos datos sino que tratamos de buscarles algún patrón.
Una trampa tentadora consiste en forzar los datos hasta
que parezcan apoyar una idea preconcebida. Eso no
quiere decir que el análisis de datos no pueda ser moti-
vado por una hipótesis previa, sino que se necesita una
estrategia adecuada para reducir la probabilidad de ob-
tener resultados no reproducibles. Las últimas décadas
M ÈTODE

han mostrado avances apasionantes en métodos esta-


dísticos orientados a distinguir la señal del ruido en Los Centros de Control y Prevención de Enfermedades (CDC) de
los datos masivos. Pero estos avances todavía no han los EE UU remiten semanalmente el número de visitas médicas por
calado en los análisis rutinarios de datos. Nuzzo (2014) enfermedades de tipo gripal, pero los resultados van con tres sema-
nas de retraso, que es lo que cuesta procesarlos. Google Flu Trends
considera que, al observar un valor p de 0,01 para una (GFT) utiliza el número de búsquedas en Internet relacionadas con
hipótesis con diecinueve probabilidades contra una de la gripe para predecir el eventual informe de los CDC para la semana
no ser cierta, la probabilidad de que se trate de un falso en curso, proporcionando un seguimiento en tiempo real que ha
positivo es del 0,89. Con los macrodatos a menudo se sido calificado de más preciso que los informes de los propios CDC.
registran datos simplemente porque los podemos obte-
ner, no porque se espere incrementar sustancialmente
la señal. La probabilidades, por tanto, son muy supe-
riores a diecinueve contra una y las posibilidades de
falsos positivos se disparan.
Otra cuestión fundamental es que los macrodatos a
menudo proceden de diferentes fuentes, se han obteni-
do mediante diferentes técnicas o presentan diferentes
formatos. No necesariamente tienen que ser compara-
bles o presentar la misma calidad y a menudo están
ENCODE PROJECT

sometidos a varios sesgos sistemáticos. Por ejemplo,


el proyecto Encode es una de las mayores iniciativas
posteriores al Proyecto Genoma Humano. Los datos
se recolectaron en laboratorios repartidos por todo el Los macrodatos a menudo proceden de diferentes lugares, se han
mundo, usando múltiples tecnologías y procedimien- obtenido mediante diferentes técnicas o presentan diferentes for-
tos experimentales. Cuando desarrollamos un sistema matos. No siempre son comparables o presentan la misma calidad y
a veces están sometidos a varios sesgos sistemáticos. Este es el tipo
para visualizar estos macrodatos, encontramos sesgos
de problemas que experimenta el proyecto Encode, una de las ini-
sistemáticos entre los microbiochips y las tecnologías ciativas más importantes posteriores al Proyecto Genoma Humano.
de secuenciación que se debían corregir para evitar Los datos se recolectaron en laboratorios repartidos por todo el
interpretaciones erróneas (Font-Burgada et al., 2013). mundo, usando múltiples tecnologías y procedimientos.

MÈTODE
MONOGRÁFICO
Los números de la ciencia

Más en general, visualizar datos heterogéneos que


sean fáciles de entender es un reto, pero se están
haciendo progresos. Por ejemplo, con las técnicas
de visualización del flujo sanguíneo ideadas por
Michelle Borkin y sus tutores se incrementaba de
un 39 a un 91 % la capacidad de los médicos para
diagnosticar obstrucciones arteriales (Shaw, 2014).
En el pasado, los métodos de metaanálisis se con-
cibieron para combinar indicios de diferentes es-
tudios siguiendo un procedimiento riguroso. Los
macrodatos requieren nuevos métodos para poder
integrar y visualizar los datos de manera fiable.

M ÈTODE
■ PLANIFICAR
Los macrodatos están cambiando la forma de reco-
pilar las pruebas. En lugar de diseñar cuidadosamente Las sugerencias de películas que hace Netflix utilizan un modelo
que promedia 107 predicciones. La teoría de la decisión puede ayu-
un estudio, la tendencia suele ser registrar todos los dar a evaluar las ventajas de algoritmos complejos en un contexto
datos que sea posible, aceptando de forma implícita dominado por la incertidumbre y los objetivos contrapuestos; por
que cualquier patrón que se observe en ellos segura- ejemplo, el grado de satisfacción de los clientes también puede de-
mente será relevante. Esta idea falsa es una trampa pender de la diversidad de las sugerencias.
muy problemática. La represen-
tatividad de los datos no depende personalizada, Berry (2012) ha
del tamaño de la muestra sino de «LA REPRESENTATIVIDAD
defendido los ensayos clínicos
la forma de recopilarlos. Importa adaptados a grupos cada vez más
DE LOS DATOS NO
más la calidad que la cantidad. reducidos y la toma de decisiones
Un ejemplo clásico es un estudio DEPENDE DEL TAMAÑO DE adaptadas a cada paciente. Müller
británico en el que se evaluaron LA MUESTRA SINO DE LA et al. (2004) han propuesto dise-
en 20.000 niños los beneficios FORMA DE RECOPILARLOS. ños rigurosos para estudios de
de la leche pasteurizada. William comprobación de hipótesis ma-
IMPORTA MÁS LA CALIDAD
Gosset, más conocido como Stu- sivas. También han tenido éxito
QUE LA CANTIDAD»
dent, señaló que, por culpa de la propuestas de diseño de estudios
distribución aleatoria inadecuada, observacionales. Para mostrar las
un estudio con solo seis gemelos ventajas del seguro público de sa-
habría sido más fiable (Student, 1931). Un factor que lud en México, King et al. (2009) elaboraron un estu-
contribuye a la falta de atención que se presta al dise- dio que comparaba las comunidades con este seguro y
ño del estudio puede ser el exceso de fe en las nuevas las que no lo tenían. Como estas mostraban caracterís-
tecnologías. Por ejemplo, la comunidad científica ha ticas similares, las diferencias entre los resultados en
recibido con entusiasmo la irrupción de la secuencia- salud se pueden atribuir más al seguro que a factores
ción de alto rendimiento (HTS). He conocido reputa- externos.
dos investigadores que argumentan que con una sola
muestra estos estudios son tan buenos como las tecno-
■ UN CASO PARA LA ESTADÍSTICA
logías anteriores con docenas de muestras. Aunque la
HTS sea precisa, una sola muestra no puede medir la De forma similar a las bases que sentaron pioneros
variabilidad para comparar poblaciones. Otra anécdota como Ronald Fisher, William Gosset o Harold Jeffreys
es que algunos centros de HTS procesan dos muestras en la aplicación de los datos a la ciencia, los negocios y
en diferentes fechas cuando deberían procesar en para- la política, el paradigma de los macrodatos se alimenta
lelo para evitar sesgos. Como resultado, experimentos de contribuciones metodológicas. El algoritmo Page-
muy caros han dado resultados prácticamente inútiles. Rank utilizado por Google se basa en las cadenas de
La extensión de la teoría sobre el diseño de expe- Markov. Las sugerencias de películas que hace Netflix
rimentos formulada por Ronald Fisher a los macroda- utilizan un modelo que promedia 107 predicciones. La
tos ha sido en su mayoría desatendida, pero hay nota- teoría de la decisión puede ayudar a evaluar las venta-
bles excepciones. Dado que vamos hacia la medicina jas de complejos algoritmos en un contexto dominado

MÈTODE
MONOGRÁFICO
Los números de la ciencia

por la incertidumbre y los objetivos contradictorios, por Disponible en: <www3.weforum.org/docs/WEF_TC_MFS_BigDataBigIm-


pact_Briefing_2012.pdf>.
ejemplo, el grado de satisfacción de los clientes también GORTON, G., 2009. «Information, Liquidity, and the (Ongoing) Panic of 2007».
puede depender de la diversidad de las sugerencias. American Economic Review, 99(2): 567-572. DOI: <10.1257/aer.99.2.567>.
Ya hemos expuesto la necesidad de explorar nuevos HILBERT, M., 2012. «How Much Information Is There in the “Information So-
ciety”?». Significance, 9(4): 8-12. DOI: <10.1111/j.1740-9713.2012.00584.x>.
métodos para separar la señal del ruido, capturar proce- INTERNATIONAL BUSINESS MACHINES CORPORATION, 2011. IBM Big Data Success
sos dinámicos, diseñar experimentos e integrar datos he- Stories. International Business Machines Corporation. Armonk, NY. Disponi-
terogéneos. Los métodos computacionales que combinan ble en: <http://public.dhe.ibm.com/software/data/sw-library/big-data/ibm-big-
data-success.pdf>.
potencia de procesamiento con estrategias inteligentes JORDAN, M., 2013. «On Statistics, Computation and Scalability». Bernoulli,
para resolver problemas complejos son otro de los te- 19(4): 1378-1390. DOI: <10.3150/12-BEJSP17>.
mas centrales, ya que es poco probable que tengan éxito KING, G. et al., 2009. «Public Policy for the Poor? A Randomized Assessment
of the Mexican Universal Health Insurance Programme». The Lancet, 373:
los enfoques exhaustivos o de fuerza bruta. Otros retos 1447-1454. DOI: <10.1016/S0140-6736(09)60239-7>.
son la recuperación y el resumen de datos. Los métodos LAZER, D.; K ENNEDY, R.; K ING, G. y A. VESPIGNANI, 2014 «The Parable of Goo-
automáticos para detectar y dar formato a los datos no gle Flu: Traps in Big Data Analysis». Science, 343(6176): 1203-1205. DOI:
<10.1126/science.1248506>.
estructurados (como imágenes o blogs) pueden descar- LEWIS, M., 2003. Moneyball. The Art of Winning an Unfair Game. W. W. Nor-
tar información o inducir sesgos. Otro problema es que ton & Company. Nueva York.
actualmente generamos más datos de los que podemos LOHR, S., 2012. «The Age of Big Data». The New York Times, 11 de febrero
de 2012. Disponible en: <www.nytimes.com/2012/02/12/sunday-review/big-
almacenar (Hilbert, 2012), lo que obliga a resumir los da- datas-impact-in-the-world.html>.
tos. Y los resúmenes implican el riesgo de perder infor- MÜLLER, P.; PARMIGIANI, G.; ROBERT, C. y J., ROUSSEAU, 2004. «Optimal Sam-
mación. Como ejemplo, hace poco informamos de que la ple Size for Multiple Testing: The Case of Gene Expression Microarrays».
Journal of the American Statistical Association, 99(468): 990-1001. DOI:
estrategia que actualmente se aplica para recapitular los <10.1198/016214504000001646>.
datos de la secuenciación de ARN descarta tanta infor- NUZZO, R., 2014. «Scientific Method: Statistical Errors». Nature, 506: 150-152.
mación que ciertos detalles se escapan aunque la cantidad DOI: <10.1038/506150a>.
ROSSELL, D.; STEPHAN-OTTO ATTOLINI, C.; K ROISS, M. y A. STÖCKER, 2014.
de datos vaya creciendo hasta el infinito (Rossell et al., «Quantifying Alternative Splicing from RNA-Sequencing Data». The
2014). Un tema relacionado es el de la toma de muestras. Annals of Applied Statistics, 8(1): 309-330. DOI: <10.1214/13-AOAS687>.
Almacenar una muestra apropiada obtenida de todos los SHAW, J., 2014. «Why “Big Data” Is a Big Deal». Harvard Magazine, 3: 30-35, 74-
75. Disponible en: <http://harvardmag.com/pdf/2014/03-pdfs/0314-30.pdf>.
datos puede incrementar la velocidad y reducir costes, SILVER, N., 2012. The Signal and the Noise: Why So Many Predictions Fail –
con una pérdida insignificante en la precisión. Fan et al. but Some Don’t. Penguin Press. Nueva York.
(2014) y Jordan (2013) han abordado cuestiones relativas STUDENT, 1931. «The Lanarkshire Milk Experiment». Biometrika, 23(3-4):
398-406. DOI: <10.2307/2332424>.
a la estadística y el procesamiento de macrodatos.
La estadística, como disciplina que combina razona- ABSTRACT
miento científico, teoría de la probabilidad y matemáti- Big Data and Statistics: A Statistician’s Perspective.
cas, es un componente necesario para que la revolución
Big Data brings unprecedented power to address scientific,
de los macrodatos alcance todo su potencial. Sin embar-
economic and societal issues, but also amplifies the possibi-
go, la estadística no puede funcionar de forma aislada lity of certain pitfalls. These include using purely data-driven
sino que necesita la colaboración de conocimientos téc- approaches that disregard understanding the phenomenon
nicos, de la informática y de otras disciplinas relaciona- under study, aiming at a dynamically moving target, igno-
das. Como reflexión final, el principal obstáculo para ring critical data-collection issues, summarizing or prepro-
superarse bien puede ser la falta de profesionales con la cessing the data inadequately and mistaking noise for signal.
combinación adecuada de capacidades. La selección y We review some success stories and illustrate how statistical
la formación de jóvenes talentos dispuestos a participar principles can help obtain more reliable information from
en esta excitante aventura debería ser una prioridad. data. We also touch upon current challenges that require ac-
tive methodological research such as strategies for efficient
computation, integration of heterogeneous data, extending
REFERENCIAS
BERRY, D., 2012. «Adaptive Clinical Trials in Oncology». Nature Reviews Clini-
the underlying theory to increasingly complex questions
cal Oncology, 9: 199-207. DOI: <10.1038/nrclinonc.2011.165>. and, perhaps most importantly, training a new generation of
CURTICE, J. y D. FIRTH, 2008. «Exit Polling in a Cold Climate: the BBC-ITV scientists who can develop and deploy these strategies.
Experience Explained». Journal of the Royal Statistical Society A, 171(3):
509-539. DOI: <10.1111/j.1467-985X.2007.00536.x>. Keywords: Big Data, statistics, case studies, pitfalls, challenges.
FAN, J.; HAN, F. y H. LIU, 2014. «Challenges of Big Data Analysis». National
Science Review, 1(2): 293-314. DOI: <10.1093/nsr/nwt032>.
FONT-BURGADA, J.; R EINA, O.; ROSSELL, D. y F. A ZORÍN, 2013. «ChroGPS, a AGRADECIMIENTOS:
Global Chromatin Positioning System for the Functional Analysis and Vi- Trabajo parcialmente financiado por NIH grant R01 CA158113-01.
sualization of the Epigenome». Nucleic Acids Research, 42(4): 1-12. DOI:
<10.1093/nar/gkt1186>.
FORO ECONÓMICO MUNDIAL, 2012. Big Data, Big Impact: New Possibilities David Rossell. Profesor del departamento de Estadística. Universidad de
for International Development. Foro Económico Mundial. Cologny, Suiza. Warwick (Reino Unido).

MÈTODE
Introducción a la Bioinformática

Septiembre 2021
¿Qué es la bioinformática?
Bioinformática: La palabra fue acuñada en 1978
Bio-: vida
Informatics: sistemas de información y ciencias de la
computación
Análisis de datos de biología molecular utilizando técnicas
de:
• sistemas de información
• informática
• inteligencia artificial
• estadística
• matemáticas
• ~biología computacional
¿Datos de biología molecular?
ADN, ARN, genes, proteínas...
Subdisciplinas importantes dentro de la
bioinformática
Desarrollo de nuevos algoritmos y estadísticas con los que
evaluar las relaciones entre los miembros de grandes data
sets (conjuntos de datos)
Análisis e interpretación de varios tipos de datos, incluidas
secuencias de nucleótidos y aminoácidos, dominios de
proteínas y estructuras de proteínas.
Desarrollo e implementación de herramientas que permitan
el acceso y gestión eficiente de diferentes tipos de
información" (NCBI)“
Toda la computación biológica no es bioinformática, por
ejemplo, la modelización matemática no es bioinformática,
incluso cuando está conectada con problemas relacionados
con la biología.
Bioinformática

Artificial
Teoría Inteligencia Bio-inspired
Estructura computacional Computing
de datos
Optimization
Red
informática Bioinformática Internet
Computación
Computación
Gráfica
paralela
Ingeniería Tratamiento
de Software Base de de imágenes
datos
Objetivo de la bioinformática
"Mejorar la calidad de vida" entendiendo cómo esta funciona
Salud:
-Prevención de enfermedades:
* Detectar personas en riesgo
Cambio de estilo de vida, dieta...
por ejemplo, riesgo de enfermedades cardiovasculares – ejercicio..
* Estudiar la evolución del virus
por ejemplo, virus de la gripe aviar
Tratamiento:
-Evaluación cuantitativa de la propagación de la enfermedad
-Diseño racional de fármacos
por ejemplo, primer fármaco eficaz contra el VIH (Norvir 1996)
-Terapia génica
por ejemplo, niños "burbuja" sin sistema inmunológico
-Modelo animal
por ejemplo, el pez cebra es el nuevo ratón
Otras aplicaciones
Forense (huellas dactilares de ADN)

• Sospechosos de delitos (Reino Unido: base de


datos de 3 millones de personas)
• Pruebas de paternidad
Identificación de víctimas (Titanic, terremotos...)
• Prevenir el comercio ilegal (drogas, marfil...)

Paleoantropología y arqueología

• Evolución humanapor ejemplo, ¿de dónde es el


primer americano?

Industria alimentaria

• GMOs (Organismos modificados genéticamente)


Objetivo principal
• Descubrimiento de nuevos
conocimientos biológicos
• Crear una perspectiva global del sistema
vivo
• Formular principios unificadores en
biología
• De 'desconocido' a 'conocido'
• Forma rápida y eficiente de extraer
información
Bioinformatics vs Computational
Biology
Casi intercambiable
La biología computacional puede ser más amplia
La biología computacional es un campo interdisciplinario
que aplica las técnicas de la informática, las matemáticas
aplicadas y la estadística para abordar problemas biológicos.
Incluye bioinformática
Impactos de la bioinformática
Sobre ciencias biológicas (y ciencias médicas):
Técnicas experimentales a gran escala
Crecimiento de la información
Sobre ciencias computacionales:
¡Lo biológico se ha convertido en una gran fuente de nuevos
problemas algorítmicos y estadísticos!
Campos relacionados
❖Proteómica/genómica (metagenómica)/genómica
comparativa/genómica estructural
❖Informática química
❖Informática de la salud/Informática biomédica
❖Sistemas complejos
❖Biología de sistemas
❖Biofísica
❖Biología matemática: aborda problemas biológicos
utilizando métodos que no necesitan ser numéricos y no
necesitan ser implementados en software o hardware
¿Por qué es importante la
bioinformática?
Las áreas de aplicación incluye:
✓Medicina
✓Diseño de fármacos farmacéuticos
✓Agricultura
✓Acuacultura
✓Toxicología
✓Evolución molecular
✓Biosensores
✓Biomateriales
✓Modelos de computación biológica
✓Computación de ADN
¿Por qué está en auge la
bioinformática??
➢Oferta/demanda: pocas personas adecuadamente
formadas tanto en biología como en informática
➢La secuenciación del genoma, los microarrays, etc.
conducen a grandes cantidades de datos para ser
analizados
➢Conduce a descubrimientos importantes
➢Ahorra tiempo y dinero
Referencias:
Introduction to Bioinformatic Workshop, Dr Arshad Hosseini,
School of Allied Medical Sciences, Iran University of Medical
Sciences

También podría gustarte