Buscar este blog

jueves, 6 de mayo de 2010

Los científicos del LHC auguran descubrimientos inesperados





GINEBRA, 6 May. (Reuters/EP) -


Los científicos que trabajan en el proyecto Big Bang e investigan los secretos del cosmos han augurado que el enorme colisionador de partículas, más conocido como LHC, se encamina a hacer descubrimientos inesperados sobre los orígenes y composición del universo.

En un informe sobre el progreso del experimento tras dos meses a pleno rendimiento, científicos en el centro de investigación CERN dijeron que la máquina de 10.000 millones de dólares está probando rápidamente su capacidad para modificar las fronteras de la física.

"Ahora podemos imaginar que revelamos elementos exóticos como grandes dimensiones adicionales (...) y partículas pesadas de baja carga", dijo Oliver Buchmueller, director de uno de los 6 detectores que observan las colisiones en el túnel subterráneo del Gran Colisionador de Hadrones, o LHC por su sigla en inglés.

Buchmueller dijo en una reunión en el CERN, el Centro Europeo para la Investigación Nuclear en la frontera suizo-francesa cerca de Ginebra, que esos descubrimientos complementarían los esfuerzos paralelos para hallar la partícula llamada bosón de Higgs, que explicaría la existencia de la masa en el universo.

También buscan encontrar evidencias de partículas super-simétricas, que podría entregar pistas sobre la existencia de la materia oscura.

La 'teoría de las cuerdas' propone que los ingredientes básicos del universo son pequeñas cuerdas de materia que no poseen alto ni ancho, sólo longitud y que vibran en un espacio-tiempo continuo de 10 dimensiones.

Steve Myers, director de aceleradores y tecnología del CERN, dijo que el LHC no ha estado exento de incidencias desde el inicio de las colisiones de partículas a una fuerza combinada de 7 tera electronvoltios el 30 de marzo.

"Sigo pensando: esto va demasiado bien", dijo Myers. "Debemos seguir buscando mantener la máquina segura. La última cosa que queremos es otro cierre", agregó en una referencia a una filtración de refrigerante que detuvo un inicio anterior del LHC a una potencia menor en septiembre del 2008.

TEMAS PRINCIPALES

Los avances potenciales señalados por Buchmueller y reiterados por otros científicos en el encuentro, hecho para revisar cómo funciona el proyecto, son los temas principales para los físicos y cosmólogos que buscan entender cómo funciona el universo.

Las colisiones del CERN en el túnel de 27 kilómetros del LHC, que totalizan unos 200 millones desde el 30 de marzo, recrean a una escala menor lo que sucedió nanosegundos después del Big Bang hace 13.700 millones de años, cuando se generaron galaxias, estrellas, y la vida.

Seis detectores ultra sofisticados alrededor del LHC registran el comportamiento de las partículas después de colisionar, transmitiendo los datos para análisis a laboratorios del CERN y otros centros de investigación del planeta.

Hasta el momento, la máquina ha identificado varios elementos incluidos en el llamado Modelo Estándar, creado por físicos durante el Siglo XX sobre cómo creen que el cosmos debería funcionar, dijo Andrei Golutvin, un científico del CERN.

Entre estos elementos, dijo a Reuters, está una partícula conocida como "quark belleza", que ya había sido avistada en otros colisionadores del CERN y del mundo, que decae en nanosegundos tras viajar no más de 2 milímetros en el detector LHCb del CERN.

"Para mí, es un milagro que el LHC esté detectando las partículas que esperábamos del Modelo Estándar tan pronto en este experimento. Muestra lo bien que funciona", dijo Golutvin, portavoz de LHCb.

EUROPAPRES, página en internet en espñol (2010) Los científicos del LHC auguran descubrimientos inesperados (consulta: 7 de Mayo de 2010) (http://www.europapress.es/ciencia/noticia-cientificos-lhc-auguran-descubrimientos-inesperados-20100506122120.html).

Google prepara un software para televisores



Según afirma The Wall Street Journal, el tío Google ultima los preparativos para presentar en mayo un software basado en el sistema operativo Android y pensado para que los desarrolladores puedan crear herramientas que faciliten el acceso a la red a través de televisores.

El software se llamaría Google TV y sería presentado durante la conferencia que la compañía ha convocado en San Francisco (California) para los días 19 y 20 de mayo y a la que se espera que asistan más de 3.000 desarrolladores de tecnologías y contenidos.

Según el rotativo la decisión de dirigirse a los desarrolladores indica que el gigante de internet pretende poner en marcha una carrera para crear aplicaciones para su plataforma de televisión, de la misma manera que Google, Apple y otros han intentado atraer a los desarrolladores de teléfonos inteligentes.

Los esfuerzos por facilitar la navegación por internet a través de televisores y otro tipo de pantallas en el hogar ha despertado un especial interés entre compañías como Sony, Intel y Logitech, que podrían también más adelante desarrollar productos basados en ese software.

HOYSOFTWARE (2010) Google prepara un software para televisores (consulta: 5 de mayo de 2010) (http://www.hoysoftware.com/google-prepara-un-software-para-televisores/#more-1937).

Latinux estará certificando a los asistentes del CONEIS 2010



Del 2 al 7 de Agosto, Latinux estará certificando a los asistentes del CONEIS 2010 Más de 3.000 estudiantes estarán visitando el evento más importante de tecnología celebrado en el país Inca.

Caracas, 05 de mayo de 2010.- El XVIII Congreso Nacional de Estudiantes de Ingeniería de Sistemas y Computación (CONEISC), tendrá lugar la primera semana del mes de agosto, en las instalaciones del Centro de Convenciones de la Fortaleza del Real Felipe, en la región del Callao, en Perú.

La actividad contará con seis salas para la realización de ponencias simultáneas, además de talleres, cursos, call for papers, un maratón de programación, concurso titulado “Ideas de Negocios” a cargo de representantes de universidades y empresas, tanto nacionales como internacionales; y la prueba para optar por la certificación “Junior Linux Operator” (JLO por sus siglas en inglés).

La logística y aplicación de la prueba estará a cargo del cluster LATINUX, reconocido por sus certificaciones internaciones, pionero en tecnologías abiertas y líder en el mercado corporativo y personal de Iberoamérica, por sus soluciones y servicios en las áreas de educación, certificación, investigación y desarrollo.

“Todos los asistentes al evento tendrán la oportunidad de presentar la prueba sin pagar nada adicional, puesto que el costo de la inscripción ya está incluido” explica Daniel Yucra, representante de LATINUX en Perú.

Eddie Malca, uno de los organizadores del CONEISC expresa por su parte: "la posibilidad de rendir el examen de certificación LATINUX constituye un gran aporte a la formación profesional de los participantes en el XVIII CONEISC, dado que sería la primera vez en la historia que en un evento de este tipo se pueda dar la opción de una certificación de talla internacional para estudiantes y profesional de TI en el Perú, siendo una clara muestra del emprendimiento tecnológico que se necesita".

“Ésta es la primera vez que el CONEISC se organiza en Perú; se trata de un evento muy importante porque congrega a todas las universidades del país que ofrecen carreras relacionadas con el área de sistemas, software e informática” dice Daniel Yucra representante de Latinux en el Perú.

La actividad, orientada a todos los estudiantes y profesionales de Ingeniería de Sistemas, Informática y Computación, contará con más de 80 ponencias nacionales y la presencia de 12 ponentes internacionales procedentes de Corea del Sur, Bélgica, España, Estados Unidos de América, México, Argentina, Brasil, Cuba, Chile y Colombia.

Sobre el cluster LATINUX

Es el conglomerado de empresas, instituciones educativas y profesionales, que conforman la comunidad de empresas más grande en el área de tecnologías y software libre, inspirada en el Linuxweek99 y fundada en 2006.

El cluster LATINUX está respaldado por más de 11 años de experiencia internacional, en proyectos de consultoría, implementación y soporte en estándares libres, para ofrecer a sus clientes soluciones reales en el mercado actual.

Tiene presencia global y coordinaciones locales en Argentina, Brasil, Chile, Colombia, Estados Unidos de América, México, Panamá, Perú, Puerto Rico, República Dominicana, Uruguay y Venezuela.

Sobre el CONEISC UNAC 2010

El CONEISC es el Congreso Nacional de Estudiantes de Ingeniería de Sistemas y Computación mayor evento tecnológico a nivel nacional que en su XVIII edición será organizado por la Universidad Nacional del Callao - UNAC con el apoyo de la Asociación Peruana de Ingeniería de Sistemas y Computación - APEISC, del 2 al 7 de Agosto del 2010 en las instalaciones de la Fortaleza del Real Felipe en Callao Perú.

Este evento tecnológico que congrega anualmente cerca de tres mil estudiantes y futuros ingenieros y profesionales de las carreras profesionales de Ingeniería de Sistemas, Informática, Ciencias de la Computación y disciplinas afines, lleva por nombre en la presente edición “Emprendimiento Tecnológico: Motor de Desarrollo Nacional”, donde se tendrá seis salas en simultáneo para tratar las 6 líneas de conocimiento que serán de la temática del congreso como Ciencias de la Computación, Ingeniería de Sofwtare, Sistemas de Información, Tecnologías de la Información, Ingeniería de la Computación y Sistémica, consiguiendo la cifra 100 ponencias tecnológicas entre expositores nacionales e internacionales.

Más información sobre la certificación latinux en el Perú: latinux@somoslibres.org

SURNOTICIAS (2010) Latinux estará certificando a los asistentes del CONEIS 2010 (consultado: 6 de mayo de 2010)(http://www.surnoticias.com/index.php/educacion/superior-/3516-latinux-estara-certificando-a-los-asistentes-del-coneis-2010) Página web con datos sobre Carreras de Ingeniería de Computadoras

Los sistemas inteligentes permiten que las máquinas respondan como humanos

Las Palmas de Gran Canaria, 5 may (EFE).- La creación de sistemas informáticos inteligentes que funcionen de manera similar al cerebro humano permitirá que las máquinas respondan a situaciones imprevistas al lograr que aprendan a reaccionar como las personas.

Así lo aseguró hoy una de las presidentas de la XIV Conferencia Internacional IEEE de Sistemas Inteligentes en Ingeniería (INES 2010), Carmen Paz Suárez, durante la inaguración del encuentro en Las Palmas de Gran Canaria.

El objetivo es crear sistemas inteligentes para introducir inteligencia en el ámbito informático y llevarlos a la ingeniería, con numerosas aplicaciones en control medioambiental, diagnóstico médico, tráfico industrial y tráfico inteligente, entre otros campos.

"Se trata de que los sistemas artificiales puedan dar una respuesta sin tener que seguir una regla preconcebida, pues en informática todo está muy reglado y, desde que falla un elemento, todo fracasa", indicó Suárez.

Los sistemas inteligentes aprenden a enfrentarse a situaciones imprevistas, algo que se logra introduciendo unidades de proceso similares a las unidades del cerebro, lo que permite enseñar a la máquina a trabajar.

"A mayor cantidad de elementos introducidos en un sistema, mayor capacidad de respuesta, aunque siempre limitada a un campo concreto".

Actualmente el principal reto es que la introducción del aprendizaje sea lo más general posible, pues existen numerosos programas y sistemas de aprendizaje muy diferentes, según Suárez.

También se debe avanzar en la introducción de cierto funcionamentio del cerebro en el ámbito artificial, lo que permitirá conocer mejor el funcionamiento humano.

La XIV Conferencia Internacional IEEE de Sistemas Inteligentes en Ingeniería (INES 2010) está organizada por la Universidad de Las Palmas de Gran Canaria, la Obuda University (Hungría) y la Wroclaw University of Technology (Polonia).

El encuentro, que concluirá el próximo día 7, cuenta con una amplia representación de especialistas internacionales en el campo de los Sistemas Inteligentes aplicados a todos los ámbitos de la Ingeniería de Austria, Costa Rica, España, Eslovaquia, Eslovenia, Hungría, India, Irán, México, Polonia, Reino Unido, República Checa, Rumania y Sudáfrica. EFE as


ABC (2010) (http://www.abc.es/agencias/noticia.asp?noticia=371002) Página en español del ABC (consultado: 6 de MAyo de 2010).

Carreras de computación

*Ingeniería de software es la disciplina o área de la informática que ofrece métodos y técnicas para desarrollar y mantener software de calidad.

Esta ingeniería trata con áreas muy diversas de la informática y de las ciencias de la computación, tales como construcción de compiladores, sistemas operativos, o desarrollos Intranet/Internet, abordando todas las fases del ciclo de vida del desarrollo de cualquier tipo de sistemas de información y aplicables a infinidad de áreas: negocios, investigación científica, medicina, producción, logística, banca, control de tráfico, meteorología, derecho, Internet, Intranet, etc.

Una definición precisa aún no ha sido contemplada en los diccionarios, sin embargo se pueden citar las enunciadas por algunos de los más prestigiosos autores:

Ingeniería de Software es el estudio de los principios y metodologías para el desarrollo y mantenimiento de sistemas software (Zelkovitz, 1978)
Ingeniería de software es la aplicación práctica del conocimiento científico al diseño y construcción de programas de computadora y a la documentación asociada requerida para desarrollar, operar y mantenerlos. Se conoce también como Desarrollo de Software o Producción de Software ( Bohem, 1976).
Ingeniería de Software trata del establecimiento de los principios y métodos de la ingeniería a fin de obtener software de modo rentable, que sea fiable y trabaje en máquinas reales (Bauer, 1972).
Es la aplicación de un enfoque sistemático, disciplinado y cuantificable al desarrollo, operación y mantenimiento del software; es decir, la aplicación de la ingeniería al software (IEEE, 1993).
En el 2004, en los Estados Unidos, la Oficina de Estadísticas del Trabajo (U. S. Bureau of Labor Statistics) contó 760.840 ingenieros de software de computadora.[1] El término "ingeniero de software", sin embargo, se utiliza en forma genérica en el ambiente empresarial, y no todos los ingenieros de software poseen realmente títulos de Ingeniería de universidades reconocidas.

Algunos autores consideran que Desarrollo de Software es un término más apropiado que Ingeniería de Software (IS) para el proceso de crear software. Personas como Pete McBreen (autor de "Software Craftmanship") cree que el término IS implica niveles de rigor y prueba de procesos que no son apropiados para todo tipo de desarrollo de software.

Indistintamente se utilizan los términos Ingeniería de Software o Ingeniería del Software. En hispanoamérica el término usado normalmente es el primero de ellos.



*Ingeniería de sistemas es un modo de enfoque interdisciplinario que permite estudiar y comprender la realidad, con el propósito de implementar u optimizar sistemas complejos. Puede verse como la aplicación tecnológica de la teoría de sistemas a los esfuerzos de la ingeniería, adoptando en todo este trabajo el paradigma sistémico. La ingeniería de sistemas integra otras disciplinas y grupos de especialidad en un esfuerzo de equipo, formando un proceso de desarrollo estructurado.

Una de las principales diferencias de la ingeniería de sistemas respecto a otras disciplinas de ingeniería tradicionales, consiste en que la ingeniería de sistemas no construye productos tangibles. Mientras que los ingenieros civiles podrían diseñar edificios o puentes, los ingenieros electrónicos podrían diseñar circuitos, los ingenieros de sistemas tratan con sistemas abstractos con ayuda de las metodologías de la ciencia de sistemas, y confían además en otras disciplinas para diseñar y entregar los productos tangibles que son la realización de esos sistemas

Bioinformática

La bioinformática, según una de sus definiciones más sencillas, es la aplicación de tecnología de computadores a la gestión y análisis de datos biológicos. Los términos bioinformática, biología computacional y, en ocasiones, biocomputación, utilizados en muchas situaciones como sinónimos, hacen referencia a campos de estudios interdisciplinarios muy vinculados, que requieren el uso o el desarrollo de diferentes técnicas que incluyen informática, matemática aplicada, estadística, ciencias de la computación, inteligencia artificial, química y bioquímica para solucionar problemas, analizar datos, o simular sistemas o mecanismos, todos ellos de índole biológica, y usualmente (pero no de forma exclusiva) en el nivel molecular. El núcleo principal de estas técnicas se encuentra en la utilización de recursos computacionales para solucionar o investigar problemas sobre escalas de tal magnitud que sobrepasan el discernimiento humano. La investigación en biología computacional se solapa a menudo con la biología de sistemas

Los principales esfuerzos de investigación en estos campos incluyen el alineamiento de secuencias, la predicción de genes, montaje del genoma, alineamiento estructural de proteínas, predicción de estructura de proteínas, predicción de la expresión génica, interacciones proteína-proteína, y modelado de la evolución.

Una constante en proyectos de bioinformática y biología computacional es el uso de herramientas matemáticas para extraer información útil de datos producidos por técnicas biológicas de alta productividad, como la secuenciación del genoma. En particular, el montaje o ensamblado de secuencias genómicas de alta calidad desde fragmentos obtenidos tras la secuenciación del ADN a gran escala es un área de alto interés. Otros objetivos incluyen el estudio de la regulación genética para interpretar perfiles de expresión génica utilizando datos de chips de ADN o espectrometría de masas.

1. Una breve historia

En lo que sigue, y además de los hechos relevantes directamente relacionados con el desarrollo de la bioinformática, se mencionarán algunos hitos científicos y tecnológicos que servirán para poner en un contexto adecuado tal desarrollo.

Arrancaremos esta breve historia en la década de los 50 del pasado siglo XX, años en los que Watson y Crick proponen la estructura de doble hélice del ADN (1953), se secuencia la primera proteína (insulina bovina) por F. Sanger (1955),o se construye el primer circuito integrado por Jack Kilby en los laboratorios de Texas Instruments (1958).

* Las primeras décadas: años 60 y 70 del siglo XX

En 1970 se publica el algoritmo Needleman-Wunsch para alineamiento de secuencias;http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Needleman-Wunsch-25 se establece el Brookhaven Protein Data Bank(1971),http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-DataBank-26 se crea la primera molécula de ADN recombinante (Paul Berg, 1972), E. M. Southern desarrolla la técnica Southern Blot de localización de secuencias específicas de ADN (1976), comienza la secuenciación de ADN y el desarrollo de software para analizarlo (F. Sanger, software de R. Staden, 1977), y se publica en 1978 la primera secuencia de genes completa de un organismo, el fago Φ-X174(5.386 pares de bases que codifican 9 proteínas). En ámbitos tecnológicos vinculados, en estos años se asiste al nacimiento del correo electrónico (Ray Tomlinson, BBN, 1971), al desarrollo de Ethernet (protocolo de comunicaciones que facilitará la interconexión de ordenadores, principalmente en redes de ámbito local) por Robert Metcalfe (1973), y al desarrollo del protocolo TCP (Transmission Control Protocol, protocolo de control de transmisión) por Vinton Cerf y Robert Kahn (1974), uno de los protocolos básicos para Internet.

* Años 80

En la década de los 80 se asiste, en diversas áreas, a importantes avances:



Niveles de estructura de las proteínas. En los primeros ochenta se publica cómo investigar la estructura terciaria mediante RMN; en la siguiente década se desarrollarán métodos para predecir de novo algunas estructuras secundarias.

>>>  Científicos: tras la secuenciación del fago Φ-X174 a finales de la década de los 70, en 1982 F. Sanger consigue la secuenciación del genoma del fago λ (fago lambda) utilizando una nueva técnica, la secuenciación shotgun (secuenciación por perdigonada), desarrollada por él mismo; también entre 1981 y 1982 K. Wüthrich publica el método de utilización de la RMN (Resonancia Magnética Nuclear) para determinar estructuras de proteínas; Ford Doolittle trabaja con el concepto de motivo de secuencia (similitudes supervivientes, según las denomina en el resumen de su artículo) en 1981; el descubrimiento en 1983 de la PCR(Polymerase Chain Reaction, reacción en cadena de la polimerasa) lleva a la multiplicación de muestras de ADN, lo que permitirá su análisis;http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-PCR-38 en 1987, D. T. Burke et al. describen el uso de cromosomas artificiales de levadura (YAC, Yeast Artificial Chromosome), y Kulesh et al. sientan las bases de los chips de ADN.41

>>>  Bioinformáticos : por lo que se refiere al desarrollo de algoritmos, métodos y programas, aparece el algoritmo Smith-Waterman (1981), el algoritmo de búsqueda en bases de datos de secuencias (Wilbur-Lipman, 1983), FASTP/FASTN (búsqueda rápida de similitudes entre secuencias, 1985), el algoritmo FASTA para comparación de secuencias (Pearson y Lipman, 1988), y comienzan a utilizarse modelos ocultos de Márkov para analizar patrones y composición de las secuencias (Churchill, 1989),http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Churchill-45 lo que permitirá más adelante localizar genes y predecir estructuras protéicas; aparecen importantes bases de datos biológicas (GenBank en 1982, Swiss-Prot en 1986), redes que las interconectan (EMBnet en 1988), y se potencian o se crean diferentes organismos e instituciones (EMBL se constituye en 1974 pero se desarrolla durante la década de los 80, NCBI en 1988); también en estos años empieza a estudiarse la viabilidad de la Human Genome Initiative (First Santa Fe Conference, 1985), que será anunciada un año después por el DoE(Department of Energy, departamento de energía del gobierno de los EE.UU.) y que pondrá en marcha proyectos piloto para desarrollar recursos y tecnologías críticas; en 1987 el NIH (National Institutes of Health, institutos nacionales de la salud de EE.UU.) comienza aportar fondos a proyectos genoma, mientras que en 1988 arranca la Human Genome Initiative, más conocida finalmente como Human Genome Project (Proyecto Genoma Humano).

>>> Tecnológicos: 1983 verá la aparición del estándar Compact Disc (CD) en su versión para ser leído por un ordenador (Yellow Book);http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-CDHistory-54 Jon Postel y Paul Mockapetris desarrollan en 1984 el sistema de nombres de dominio DNS, necesario para un direccionamiento correcto y ágil en Internet;http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-DNS-55 en 1987 Larry Wall desarrolla el lenguaje de programación PERL, de amplio uso posterior en bioinformática; y a finales de la década se verán las primeras compañías privadas importantes con actividades vinculadas al genoma, proteínas, bioquímica, etc. (Genetics Computer Group – GCG, Oxford Molecular Group, Ltd.), y que, en general, experimentarán importantes transformaciones años más tarde.

* Años 90

En los años 90 asistimos a los siguientes eventos:

>>> Científicos: en 1991 comienza la secuenciación con EST (Expressed Sequence Tags, marcaje de secuencias expresadas); al año siguiente es publicado el mapa de ligamiento genético (en baja resolución) del genoma humano completo; en 1995 se consigue secuenciar completamente los primeros genomas de bacterias (Haemophilus influenzae, Mycoplasma genitalium, de 1,8 millones de pares de bases -Mbps- y 0,58 Mbps, respectivamente); en 1996, y en diferentes pasos (por cromosoma), se hace lo propio con el primer genoma eucariota, el de la levadura (Saccharomyces cerevisiae, con 12 Mbps), así como en 1997 con el genoma de Escherichia coli (4,7 Mbps), en 1998 con el primer genoma de un organismo multicelular (97 Mbp del Caenorhabditis elegans), para terminar la década con el primer cromosoma humano (el 22) completamente secuenciado en 1999 (33,4 Mbps).

>>> Bioinformáticos : búsqueda rápida de similitudes entre secuencias con BLAST (1990); base de datos de huellas de proteínas PRINTS, de Attwood y Beck (1994);http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Attwood-67 ClustalW, orientado al alineamiento múltiple de secuencias, en 1994, y PSI-BLAST en 1997; a finales de la década se desarrolla T-Coffee, que se publica en 2000. Por lo que se refiere a actividades institucionales y nuevos organismos, tenemos la presentación por parte del DoE y NIH al Congreso de los EE.UU., en 1990, de un plan de esfuerzos conjuntos en el Human Genome Project para cinco años; se crean el Sanger Centre (Hinxton, UK, 1993; ahora Sanger Institute) y el European Bioinformatics Institute(EBI, Hinxton, UK, 1992-1995).

>>> Tecnológicos: Tim Berners-Lee inventa la World Wide Web (1990) mediante aplicación de protocolos de red que explotan las características del hipertexto;http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-www-74 en 1991 aparecen los protocolos definitivos de Internet (CERN)http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Berners-Lee-75 y la primera versión del sistema operativo Linux, muy utilizado posteriormente en aplicaciones científicas; en 1998 Craig Venter funda Celera, compañía que perfeccionará la secuenciación por perdigonada de F. Sanger y analizará los resultados con software propio.

* Primeros años del siglo XXI

A destacar que en los años 2000 están culminando múltiples proyectos de secuenciación de genomas de diferentes organismos: en 2000 se publican, entre otros, el genoma de Arabidopsis thaliana (100 Mb)http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-A._thaliana-78 y el de Drosophila melanogaster (180 Mbp). Tras un borrador operativo de la secuencia de ADN del genoma humano del año 2000, en 2001 aparece publicado el genoma humano (3 Gbp).http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Venter_2001-81 Poco después, en2003, y con dos años de adelanto sobre lo previsto, se completa el Human Genome Project. Por mencionar algunos de los genomas analizados en los años siguientes, anotaremos que en 2004 aparece el borrador del genoma de Rattus norvegicus (rata), en 2005 el del chimpancé, en 2006 el del macaco rhesus, en 2007 el del gato doméstico, y en 2008 se secuencia por primera vez el genoma de una mujer. Gracias al desarrollo de las técnicas adecuadas, asistimos actualmente a un aluvión de secuenciaciones de genomas de todo tipo de organismos.

En 2003 se funda en España el Instituto Nacional de Bioinformática, soportado por la Fundación Genoma España (fundada, a su vez, un año antes y que pretende constituirse en instrumento del estado para potenciar la investigación en este campo). En 2004, la estadounidense FDA (Food and Drug Administration, agencia para la administración de alimentos y fármacos) autoriza el uso de un chip de ADN por primera vez.http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-FirstADNChip-90 En 2005 se completa el proyecto HapMap (catalogación de variaciones genéticas en el ser humano). En 2008 UniProt presenta el primer borrador del proteoma completo del ser humano, con más de veinte mil entradas.

Poco a poco, los primeros programas bioinformáticos se van perfeccionando, y vemos versiones más completas como la 2.0 de ClustalW (reescrito en C++ en 2007).



2. Conceptos y alcance


Como se ha avanzado en la introducción, los términos bioinformática, biología computacional y biocomputación son utilizados a menudo como sinónimos, apareciendo con frecuencia en la literatura básica de forma indiferenciada en sus usos comunes. Sin embargo, hay conformadas áreas de aplicación propias de cada término. El NIH (National Institutes of Health, Institutos Nacionales de la Salud de los Estados Unidos), por ejemplo, aún reconociendo previamente que ninguna definición podría eliminar completamente el solapamiento entre actividades de las diferentes técnicas, define explícitamente los términos bioinformática y biología computacional:16

>>> Bioinformática es la investigación, desarrollo o aplicación de herramientas computacionales y aproximaciones para la expansión del uso de datos biológicos, médicos, conductuales o de salud, incluyendo aquellas herramientas que sirvan para adquirir, almacenar, organizar, analizar o visualizar tales datos.

>>> Biología computacional sería el desarrollo y aplicación de métodos teóricos y de análisis de datos, modelado matemático y técnicas de simulación computacional al estudio de sistemas biológicos, conductuales y sociales.

De esta forma, la bioinformática tendría más que ver con la información, mientras que la biología computacional lo haría con las hipótesis. Por otra parte, el término biocomputación suele enmarcarse en las actuales investigaciones con biocomputadores y, por ejemplo, T. Kaminuma lo define de la siguiente forma:

>>> Biocomputación es la construcción y uso de computadores que contienen componentes biológicos o funcionan como organismos vivos.17

Aparte de las definiciones formales de organismos o instituciones de referencia, los manuales de esta materia aportan sus propias definiciones operativas, lógicamente vinculadas en mayor o menor medida con las ya vistas. Como ejemplo, David W. Mount, en su difundido texto sobre bioinformática,18 precisa que

…la bioinformática se centra más en el desarrollo de herramientas prácticas para la gestión de datos y el análisis (por ejemplo, la presentación de información genómica y análisis secuencial), pero con menor énfasis en la eficiencia y en la precisión.

Por otra parte, y según el mismo autor:

"(...)la biología computacional generalmente se relaciona con el desarrollo de algoritmos nuevos y eficientes, que se puede demostrar funcionan sobre un problema difícil, tales como el alineamiento múltiple de secuencias o el montaje (o ensamblado) de fragmentos de genoma."

Por último, se encuentra en ocasiones una categorización explícita de estos conceptos según la cual la bioinformática es una subcategoría de la biología computacional. Por ejemplo, la bióloga Cynthia Gibas anota que:19

La bioinformática es la ciencia del uso de la información para entender la biología. (...) Hablando estrictamente, la bioinformática es un subconjunto del campo mayor de la biología computacional, (siendo esta última) la aplicación de técnicas analíticas cuantitativas en el modelado de sistemas biológicos.

No obstante, y refiriéndose a su propio texto (Developing Bioinformatics Computer Skills, desarrollo de habilidades computacionales para bioinformática), enseguida pasa a aclarar que:

"(...)...pasaremos de bioinformática a biología computacional y viceversa. Las distinciones entre las dos no son importantes para nuestro propósito aquí."

En muchas ocasiones, por lo tanto, los términos serán intercambiables y, salvo en contextos de cierta especialización, el significado último se mantendrá claro utilizando cualquiera de ellos.

. Principales áreas de investigación

1. Anotación de genomas

En el contexto de la genómica, anotación es el proceso de marcado de los genes y otras características biológicas de la secuencia de ADN.99 El primer sistema software de anotación de genomas fue diseñado en 1995 por Owen White, quien fue miembro del equipo que secuenció y analizó el primer genoma en ser descodificado de un organismo independiente, la bacteria Haemophilus influenzae. White construyó un software para localizar los genes (lugares en la secuencia de DNA que codifican una proteína), el ARN de transferencia, y otras características, así como para realizar las primeras atribuciones de función a esos genes.61 La mayoría de los actuales sistemas de anotación genómica trabajan de forma similar, pero los programas disponibles para el análisis del genoma se encuentran en continuo cambio y mejora.

2. Biología evolutiva computacional

La Biología evolutiva es el estudio del origen ancestral de las especies, así como de su cambio a través del tiempo. La informática ha apoyado a los biólogos evolutivos en diferentes campos clave. Ha permitido a los investigadores:

>>> Seguir la evolución de un alto número de organismos midiendo cambios en su ADN, en lugar de hacerlo exclusivamente mediante su taxonomía física u observaciones fisiológicas.

>>> Más recientemente, comparar genomas completos, lo que permite el estudio de eventos evolutivos más complejos, tales como la duplicación de genes, la transferencia horizontal de genes, o la predicción de factores significativos en la especiación bacteriana.

>>> Construir modelos computacionales complejos de poblaciones para predecir el resultado del sistema a través del tiempo.

>>> Seguir y compartir información sobre un amplio y creciente número de especies y organismos.

Los esfuerzos futuros se centrarán en reconstruir el cada vez más complejo árbol filogenético de la vida. El área de investigación de las ciencias de la computación denominada computación evolutiva se confunde ocasionalmente con la Biología evolutiva computacional, pero ambas áreas no guardan relación. Dicho campo se centra en el desarrollo de algoritmos genéticos y otras estrategias de resolución de problemas con una marcada inspiración evolutiva y genética.

3. Análisis de mutaciones en el cáncer

En el cáncer, los genomas de las células afectadas son reordenados en complejas y/o aún impredecibles maneras. Se realizan esfuerzos masivos de secuenciación para identificar sustituciones individuales de bases (o puntos de mutación de nucleótidos) todavía desconocidos en una variedad de genes en el cáncer. Los bioinformáticos continúan produciendo sistemas automatizados para gestionar el importante volumen de datos de secuencias obtenido, y crean nuevos algoritmos y software para comparar los resultados de secuenciación con la creciente colección de secuencias del genoma humano y de los polimorfismos de la línea germinal. Se están utilizando nuevas tecnologías de detección física, como los microarrays de oligonucleótidos para identificar pérdidas y ganancias cromosómicas (técnica denominada hibridación genómica comparativa), y los arrays de polimorfismos de nucleótido simple para detectar puntos de mutación conocidos.http://es.wikipedia.org/wiki/Bioinform%C3%A1tica - cite_note-Zhao_2004-115 Estos métodos de detección miden simultáneamente bastantes cientos de miles de posiciones a lo largo del genoma, y cuando se usan con una alta productividad para analizar miles de muestras, generan terabytes de datos por experimento. De esta forma las masivas cantidades y nuevos tipos de datos proporcionan nuevas oportunidades para los bioinformáticos. A menudo se encuentra en los datos una considerable variabilidad, o ruido, por lo que métodos como el de los modelos ocultos de Márkov y el análisis de puntos de cambio están siendo desarrollados para inferir cambios reales en el número de copias de los genes (número de copias de un gen particular en el genotipo de un individuo, cuya magnitud puede ser elevada en células cancerígenas).

Otro tipo de datos que requiere novedosos desarrollos informáticos es el análisis de las lesiones encontradas de forma recurrente en buen número de tumores, principalmente por análisis automatizado de imagen clínica.

4. Modelado de sistemas biológicos

La biología de sistemas implica el uso de simulaciones por ordenador de subsistemas celulares (tales como redes de metabolitos y enzimas que comprenden el metabolismo, caminos de transducción de señales, y redes de regulación genética), tanto para analizar como para visualizar las complejas conexiones de estos procesos celulares. La vida artificial o la evolución virtual tratan de entender los procesos evolutivos por medio de la simulación por ordenador de sencillas formas de vida (artificial).

Herramientas software

Las herramientas software para bioinformática van desde simples herramientas de línea de comandos hasta mucho más complejos programas gráficos y servicios web autónomos situados en compañías de bioinformática o instituciones públicas. La más conocida herramienta de biología computacional entre los biólogos es, probablemente, BLAST, un algoritmo para determinar la similitud de secuencias arbitrarias con otras secuencias, probablemente residentes en bases de datos de proteínas o de secuencias de ADN. El NCBI (National Center for Biotechnology Information, EE.UU.), por ejemplo, proporciona una implementación muy utilizada, basada en web, y que trabaja sobre sus bases de datos.



Para alineamientos múltiples de secuencias, el clásico ClustalW, actualmente en su versión 2, es el software de referencia. Puede trabajarse con una implementación del mismo en el EBI (Instituto Europeo de Bioinformática).

BLAST y ClustalW son sólo dos ejemplos de los muchos programas de alineamiento de secuencias disponibles. Existe, por otra parte, multitud de software bioinformático con otros objetivos: alineamiento estructural de proteínas, predicción de genes y otros motivos, predicción de estructura de proteínas, predicción de acoplamiento proteína-proteína, o modelado de sistemas biológicos, entre otros. En Anexo: Software para alineamiento de secuencias y Anexo: Software para alineamiento estructural pueden encontrarse sendas relaciones de programas o servicios web adecuados para cada uno de estos dos objetivos en particular.

>>> Servicios web en bioinformática

Se han desarrollado interfaces basadas en SOAP y en REST (Representational State Transfer, transferencia de estado representacional) para una amplia variedad de aplicaciones bioinformáticas, permitiendo que una aplicación, corriendo en un ordenador de cualquier parte del mundo, pueda usar algoritmos, datos y recursos de computación alojados en servidores en cualesquiera otras partes del planeta. Las principales ventajas radican en que el usuario final se despreocupa de actualizaciones y modificaciones en el software o en las bases de datos. Los servicios bioinformáticos básicos, de acuerdo a la clasificación implícita del EBI, pueden clasificarse en:

º Servicios de obtención de información en línea (consultas a bases de datos, por ejemplo).
º Herramientas de análisis (por ejemplo, servicios que den acceso a EMBOSS).
º Búsquedas de similitudes entre secuencias (servicios de acceso a FASTA o BLAST, por ejemplo).
º Alineamientos múltiples de secuencias (acceso a ClustalW o T-Coffee).
º Análisis estructural (acceso a servicios de alineamiento estructural de proteínas, por ejemplo).
º Servicios de acceso a literatura especializada y ontologías.

La disponibilidad de estos servicios web basados en SOAP a través de sistemas tales como los servicios de registro, (servicios de distribución y descubrimiento de datos a través de servicios web) demuestra la aplicabilidad de soluciones bioinformáticas basadas en web. Estas herramientas varían desde una colección de herramientas autónomas con un formato de datos común, y bajo una única interface autónoma o basada en web, hasta sistemas integradores y extensibles para la gestión del flujo de trabajo bioinformático.