A partir de 1950 las tecnologías de la información y la comunicación (TICs) iniciaron un desarrollo notable, esto ha repercutido en la transformación de la comunicación y en las relaciones sociales, económicas, políticas y culturales del mundo., como consecuencia del incremento en las capacidades para generar, sistematizar, compartir, transmitir, analizar y difundir la información.
Esta (r)evolución informática está caracterizada por el uso del formato digital, la masificación, democratización, personalización, automatización, actualización e inmediatez, influye y es influida por el progreso científico y tecnológico del siglo XX. Referirse a información en pleno siglo XXI implica la mención de términos, métodos, teorías novedosas e innovadoras como: sociedad del conocimiento, sociedad de la información, globalización, infodiversidad, acceso a la información, e-ciencia, e-investigación, grids, colaboratorios, conocimiento basado en la literatura, minería de textos (text mining), web semántica, índice de impacto, cocitación, web 2.0 y 3.0 redes sociales, plagio, acceso libre, derecho al olvido, computación en nube (cloud computer) u ontologías, por mencionar las más frecuentes.
¿Como ha transformado todo este fenómeno la práctica científica? ¿Cuál ha sido la relación entre la computación y la ciencia?, ¿Qué es la e-ciencia? Estas son algunas preguntas que abordaré en nuestra plática: prepárense para un viaje a través de lo más innovativo de la Web y la ciencia.
La poesía del encarcelamiento de Raúl Zurita en el aula: una propuesta didáctica
Web y ciencia
1. Web y ciencia
Layla Michán, 26 junio 2011
Conferencia Familia Carrasco
• ¿Como ha transformado la (r)evolución digital
la práctica científica?
• ¿Cuál ha sido la relación entre la computación
y la ciencia?
• ¿Qué es la e-ciencia?
• Estas son algunas preguntas que abordaré en
nuestra plática: prepárense para un viaje a
través de lo más innovativo de la Web y la
Ciencia.
2. Internet y Ciencia
• Berners-Lee trabajó en el CERN desde junio hasta diciembre de 1980.
Durante ese tiempo, propuso un proyecto basado en el hipertexto para
facilitar la forma de compartir y la puesta al día de la información entre
investigadores.
• Es considerado el padre de la web.
• Ante la necesidad de distribuir e intercambiar información acerca de sus
investigaciones de una manera más efectiva, Berners-Lee desarrolló las
ideas fundamentales que estructuran la web. Él y su grupo crearon lo que
por sus siglas en inglés se denomina
Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de
hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema de
localización de objetos en la web URL (UniformResource Locator).
• En 1989, el CERN era el nodo de Internet más grande de Europa y
Berners-Lee vio la oportunidad de unir Internet y el hipertexto
(HTTP y HTML), de lo que surgiría la World Wide Web.
• En su libro Tejiendo la red, publicado en 1999, Tim Berners-Lee explica por
qué la tecnología web es libre y gratis. Se considera al mismo tiempo el
inventor y el protector de la web.
3. La Web
• El primer servidor Web se encontraba en el CERN y fue puesto en
línea el 6 de agosto de 1991.
• Esto proporcionó una explicación sobre lo que era el World Wide
Web, como uno podría tener un navegador y como establecer
un servidor Web.
• Este fue también el primer directorio Web del mundo, ya que
Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo.
Debido a que tanto el software del servidor como del cliente fue
liberado de forma gratuita desde el CERN, el corazón de Internet
Europeo en esa época, su difusión fue muy rápida.
• El número de servidores Web pasó de veintiséis de 1992 a
doscientos en octubre de 1995 lo que refleja cual fue la velocidad
de la difusión de internet.
• En 1994 entró en el Laboratorio de Ciencias de la Computación e
Inteligencia Artificial del Massachusetts Institute of Technology. Se
trasladó a EE.UU. y puso en marcha el W3C, que dirige
actualmente.
4. • El Gran Colisionador
de Hadrones se producen alrededor
de 15 petabytes (15 millones de gigabytes)
de datos al año - suficiente para llenar más de
1,7 millones de DVD de doble capa de un año!
Miles de científicos de todo el mundo desea tener
acceso y analizar estos datos, por lo que el
CERN está colaborando con instituciones en
34 países diferentes para
operaruna infraestructura de computación
distribuida y almacenamiento de
datos: elWorldwide LHC Computing Grid (WLCG).
5. • Seis grados de separación es una teoría que intenta probar que
cualquiera en la Tierra puede estar conectado a cualquier otra persona del
planeta a través de una cadena de conocidos que no tiene más de cinco
intermediarios (conectando a ambas personas con sólo seis enlaces) o más
popularmante que "el mundo es un pañuelo". La teoría fue inicialmente
propuesta en 1930 por el escritor húngaro Frigyes Karinthy en un cuento
llamadoChains. El concepto está basado en la idea de que el número de
conocidos crece exponencialmente con el número de enlaces en la cadena,
y sólo un pequeño número de enlaces son necesarios para que el conjunto
de conocidos se convierta en la población humana entera.
• Según esta teoría, cada persona conoce de media, entre amigos, familiares
y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de
esos amigos o conocidos cercanos se relaciona con otras 100 personas,
cualquier individuo puede pasar un recado a 10.000 personas más tan sólo
pidiendo a un amigo que pase el mensaje a sus amigos.
6. Efecto 10X
• En la industria de TI, la tecnología y el
uso evoluciona más rápido que tal vez en
cualquier otra industria.
• Como regla general, los
sistemas pueden crecer 10 veces en su actual
arquitectura o paradigma, entonces debe ser r
ediseñado.
• Este efecto hace que las tecnologías
de 10X de edad para convertirse
en los obsoletos y los nuevos que surjan.
7. (Re)evolución de la información
(científica)
• Modificación en la forma de producir, evaluar, consultar y
difundir el nuevo conocimiento científico.
– Revistas electrónicas
– Procedimiento electrónico
– Evaluación libre
– Preprints
– Inmediatez
• Se han producido nuevas disciplinas científicas
– Bioinformática
– Informática Médica
– E-taxonomía
8. Siglo Nuevos términos, métodos, teorías
XXI novedosas e innovadoras
•Sociedad del conocimiento •Web semántica
•Sociedad de la información •Indice de impacto
•Globalización •Cocitación
•Infodiversidad •Web 2.0 y 3.0
•Acceso abierto •Redes Sociales
informática
•e-ciencia •Plagio
Evolución
•e-investigación •Recuperación de
•Grid información
•Colaboratorios •Democratización
•Conocimiento basado en la •Computo en nube
literatura •Derecho al olvido
•Mineria de textos •Semántica
El siglo XX
Cambios en la forma de Nuevos campos
producir conocimiento de conocimiento
científico
16. Browse I Web Apps II Bibliographic data
Web Metabrowser web browsers Collections
Librarie
Browsers s specialized
Editors s
Suppliers
Search
Information systems
Bookmark Indexes and catalogs
Manage
Share
III Meta-analysis
• Scientometrics
• Network Analysis
• Text mining
Repositories
• Semantics
18. Delicious Visualizeus
Mendeley
CiteUlike
Barra de herramientas de Google
Vista Previa Interclue
Zotero
Interclue
Xmarks
Delicious
25. Automatización, Actualización e
Inmediatez
• Importancia de la actualización e inmediatez
en el área Biomédica.
• La herramienta de la web 2.0 para la
actualización: los feeds
• i-google y Google Reader
• Creación de feeds
– De revistas (Cell, Nature, Science, Plosone)
– De blogs (ciberinfraestructura)
– De noticias
– De google
26. Torres-Salinas, D. and E. Delgado-López-Cózar (2009, September). Estrategia para mejorar la difusión de los resultados de
investigación con la web 2.0. El Profesional de la Informacion 18 (5), 534-539.
27. (Hull, D. et al., 2008)
Figure 1. A mind map [207] summarizing the contents of this article in a convenient manner.
doi:10.1371/journal.pcbi.1000204.g001
29. Cloud computing (cómputo en nube)
Es un enfoque transformador de la computación que involucra
muchos aspectos, entre los que se incluyen:
algoritmos a gran escala que se ejecutan en diversos conjuntos de
datos (estructurados, semi-estructurados y no estructurados),
almacenados en grandes equipos con enormes cantidades de datos
de enorme,
utilidades basadas en la rápida provisión de recursos informáticos
personalizados, y la web ubicua con aplicaciones accesibles
desde cualquier lugar.
Sin embargo, es mucho más que lo que la tecnología promete:
transformar radicalmente nuestra manera de interactuar con
la información.
30. Ecosistemas digitales
• En el mundo de Internet, el rápido crecimiento y el uso exponencial de
los medios digitales ha dado lugar a la aparición de
entornos virtuales denominados ecosistemas digitales.
• Están integrados por varias entidades independientes, como: individuos,
organizaciones, servicios, software y aplicaciones para
compartir una o varias misiones y centrarse sobre las interacciones e
interrelaciones entre ellos.
• Permiten la auto-organización de los ambientes, gracias a la
recombinación y la evolución de sus "componentes digitales", en
los que los recursos proporcionados
por cada entidad están bien conservadas y son factibles de gestionar y
utilizar en conjunto.
• Debido a la naturaleza multidisciplinar de los ecosistemas digitales
y sus características, son muy complejos para el estudio y diseño.
http://130.102.71.54/medes
31. ¿Qué son los Ecosistemas digitales?
En el mundo del Internet, constantemente
Ambiente virtuales
hay un crecimiento rápido y exponencial
usando los medios digitales
Ecosistemas digitales
Formados por entidades múltiples e independientes:
• individuos
• organizaciones
• servicios Interacciones e interelaciones entre
• software equipos
• aplicaciones para compartir
32. Ecosistemas digitales
Exhiben ambientes virtuales, gracias a la re-combinación
y evolución de sus ―componentes virtuales‖
Comprenden:
•manejo de datos
•servicios innovadores
•inteligencia computacional
•plataformas de auto-organización
33. La aplicación de las Tecnologías de la información pueden
ser mejoradas a través de técnicas novedosas, modelos y
metodologías para cada archivo como:
• la gestión de datos
• tecnologías Web
• redes
Soporta la estabilidad de los
• seguridad
ecosistemas digitales y el
• interacciones computadora-humano
manejo de sus recursos
• inteligencia artificial
• e-servicios
• sistemas de auto-organización
34. La conferencia internacional del Manejo de
EcoSistemas Digitales Emergentes (MEDES)
Su objetivo es desarrollar y reunir a diversas comunidades
de la academia, laboratorios de investigación e interesados
en la industria en exploración de múltiples desafios y temas
relacionados para el manejo de recursos de EcoSistemas
Digitales y cómo son los enfoques actuales y cómo las
tecnologias pueden evolucionar y adaptarse hasta el final.
35. Cómputo en grid
• No hay otro gran avance tecnológico ha
demostrado el poder de los individuos de
más de grid computing. Al donar su tiempo
en la computadora sin usar, puede
empezar a cambiar el mundo para mejor.
Empezar es fácil! Simplemente haga
clic aquí para unirse a la World
Community Griden la actualidad.
36. World Community Grid
• Computación Grid: Los Fundamentos
• La computación grid se une a muchos equipos individuales, creando un gran sistemacon el
poder computacional masivo que supera con creces el poder de un puñado
desuperordenadores. Debido a que el trabajo se divide en trozos pequeños que se
pueden procesar simultáneamente, se reduce el tiempo de investigación de años a
meses. La tecnología también es más rentable, lo que permite un mejor uso de losfondos
de crítica.
• Cambiando nuestro mundo ahora. La computación grid no es una tecnología futurista.
• World Community Grid está trabajando en este momento la aplicación de esta tecnología a los
proyectos de investigación que puede beneficiar a todos nosotros.
• Nuestro primer proyecto, Pliegue del Proteoma Humano, es la identificación de las
proteínas producidas por los genes humanos. Con esta información, los científicos
pueden entender cómo los defectos en las proteínas pueden causar enfermedades, por lo que
es más fácil para encontrar la cura.
• En 2003, con la computación grid, en menos de tres meses los
científicos identificaron44 posibles tratamientos para combatir la enfermedad mortal
viruela. Sin la red, el trabajo se ha tomado más de un año en completarse.
37. La Web 2.0 (Social)
• Se centra en la capacidad de las personas para colaborar y compartir información en
línea.
• Transición de la Web estática a una dinámica, que es más organizada.
• Comunicación abierta con un énfasis en comunidades de usuarios e intercambio de
información.
• Ya no sólo se trata de ofrecer la posibilidad de encontrar información, sino de
lograr objetivos específicos, pues es factible, crear, etiquetar jerarquizar y compartir
datos.
• Lenguaje HTLM
Web 3.0 (Semántica)
• Basada en la idea de añadir metadatos semánticos e información (a través de
mapas
• cognitivos).
• Desarrollar nuevos sistemas de interoperabilidad que permitan interpretar
• metadatos para adaptarse a las acciones de los usuarios .
• Minería de textos y ontologías
• Lenguajes: XML (etiquetas) y RDF (metadatos)
38. • La Web semántica (del inglés semantic web) es la
"Web de los datos".1 Se basa en la idea de
añadir metadatos semánticos y ontológicos a la World
Wide Web. Esas informaciones adicionales —que
describen el contenido, el significado y la relación de
los datos— se deben proporcionar de manera formal,
para que así sea posible evaluarlas automáticamente
por máquinas de procesamiento. El objetivo es
mejorar Internet ampliando la interoperabilidad entre
los sistemas informáticos usando "agentes
inteligentes". Agentes inteligentes son programas en
las computadoras que buscan información sin
operadores humanos.
39. Tim Berners-Lee, el creador de la
idea, la expresó de la siguiente
manera:
"Mi sueño es una Web en la que las
máquinas sean capaces de analizar
todos los datos –contenido, enlaces
y transacciones entre la gente y los
ordenadores–. La 'Web Semántica',
que haría esto posible, está todavía
por llegar, pero cuando llegue, la
rutina de nuestras compras,
burocracia y vida diaria será
gestionada por máquinas hablando
con máquinas. Los 'Agentes
Inteligentes' que han sido
anunciados durante décadas se
harán por fin realidad".
48. e-science/ cyberinfraestructure
• cyberinfraestructure (USA) • e-science (europe)
• United States National Science • United Kingdom's Office
Foundation (NSF) blue-ribbon of Science and
committee in 2003 Technology in 1999
• Describes the new research
• Will refer to the large
environments that support
advanced data acquisition, data scale science that will
storage, data management, data increasingly be carried
integration, data mining, data out through distributed
visualization and other global collaborations
computing and information enabled by the Internet
processing services over the
Internet
49. Ciberinfraestructura
•Entorno tecnológico-social que permite crear, difundir
y preservar los datos, información y conocimientos
mediante la adquisición, almacenamiento, gestión,
integración, informática, minería, visualización y otros
servicios a través de Internet (NSF 2003, 2007).
•Incluye un conjunto interoperable de diversos
elementos:
–1) Infraestructura, los sistemas computacionales (hardware,
software y redes), servicios, instrumentos y herramientas.
–2) Colecciones de datos.
–3) Grupos virtuales de investigación (colaboratorios y
observatorios).
50. E-ciencia (e-science)
• Resulta del uso y aplicación de la
Ciberinfraestructura en la práctica cientifica,
• Se caracteriza por la inter y multidisciplinariedad.
• Colaboración, la participación de un gran número
de investigadores (en algunos casos cientos)
localizados en diversas regiones y con diferentes
especialidades que se forman grupos trabajo (Hey
y Trefethen, 2005; Barbera et al.,2009).
51. E-ciencia
Uno de los primeros proyectos de e-ciencia fue el de el genoma
humano, se publicó en el 2001 en dos artículos con un día de
diferencia en las revistas Nature y Science.
Nature:Initial sequencing and analysis of the human genome
79 Autores
48 Instituciones
181 referencias
Todos los autores provenientes de departamentos de Ciencias
Genómicas (o genética) exceptuando los siguientes:
Department of Cellular and Structural Biology
Department of Molecular Genetics
Department of Molecular Biology
Science: The Sequence of the Human Genome
276 Autores
14 Instituciones
452 referencias
Todos los autores provenientes de departamentos de Ciencias
Genómicas (o genética) exceptuando los siguientes: Department of
Biology e Informática Médica
52. Genbank
• Es una colección anotada de todas las secuencias de
nucleótidos a disposición del público y su traducción de
proteínas.
• Centro Nacional de Información Biotecnológica (NCBI)
• European Molecular Biology Laboratory (EMBL) de datos de
Bibliotecas del Instituto Europeo de Bioinformática (EBI)
• DNA Data Bank de Japón (DDBJ).
• Reciben las secuencias producidas en laboratorios de todo el
mundo de más de 100.000 organismos distintos.
• Crece a un ritmo exponencial, duplicando cada 10
meses. Suelte 134, producido en febrero de 2003, contenía
más de 29300 millones de bases nucleotídicas en más de
23,0 millones de secuencias.
• Se construye mediante el envío directo de los distintos
laboratorios y de los centros de secuenciación a gran escala.
55. Nature. 2001 Feb 15;409(6822):860-921.
Initial sequencing and analysis of the human genome.
Lander ES, Linton LM, Birren B, Nusbaum C, Zody MC, Baldwin J, Devon K, Dewar K, Doyle M, FitzHugh
W, Funke R, Gage D, Harris K, Heaford A, Howland J, Kann L, Lehoczky J, LeVine R, McEwan P, McKernan
K, Meldrim J, Mesirov JP, Miranda C, Morris W, Naylor J, Raymond C, Rosetti M, Santos R, Sheridan
A, Sougnez C, Stange-Thomann N,Stojanovic N, Subramanian A, Wyman D, Rogers J, Sulston J, Ainscough
R, Beck S, Bentley D, Burton J, Clee C, Carter N, Coulson A, Deadman R, Deloukas P, Dunham A,Dunham
I, Durbin R, French L, Grafham D, Gregory S, Hubbard T, Humphray S, Hunt A, Jones M, Lloyd C, McMurray
A, Matthews L, Mercer S, Milne S, Mullikin JC, Mungall A,Plumb R, Ross M, Shownkeen R, Sims
S, Waterston RH, Wilson RK, Hillier LW, McPherson JD, Marra MA, Mardis ER, Fulton LA, Chinwalla
AT, Pepin KH, Gish WR, Chissoe SL, Wendl MC, Delehaunty KD, Miner TL, Delehaunty A, Kramer JB, Cook
LL, Fulton RS, Johnson DL, Minx PJ, Clifton SW, Hawkins T, Branscomb E, Predki P, Richardson P,Wenning
S, Slezak T, Doggett N, Cheng JF, Olsen A, Lucas S, Elkin C, Uberbacher E, Frazier M, Gibbs RA, Muzny
DM, Scherer SE, Bouck JB, Sodergren EJ, Worley KC, Rives CM, Gorrell JH, Metzker ML, Naylor
SL, Kucherlapati RS, Nelson DL, Weinstock GM, Sakaki Y, Fujiyama A, Hattori M, Yada T, Toyoda A, Itoh
T, Kawagoe C, Watanabe H, Totoki Y,Taylor T, Weissenbach J, Heilig R, Saurin W, Artiguenave F, Brottier
P, Bruls T, Pelletier E, Robert C, Wincker P, Smith DR, Doucette-Stamm L, Rubenfield M, Weinstock K, Lee
HM, Dubois J, Rosenthal A, Platzer M, Nyakatura G, Taudien S, Rump A, Yang H, Yu J, Wang J, Huang
G, Gu J, Hood L, Rowen L, Madan A, Qin S, Davis RW, Federspiel NA,Abola AP, Proctor MJ, Myers
RM, Schmutz J, Dickson M, Grimwood J, Cox DR, Olson MV, Kaul R, Raymond C, Shimizu N, Kawasaki
K, Minoshima S, Evans GA, Athanasiou M,Schultz R, Roe BA, Chen F, Pan H, Ramser J, Lehrach
H, Reinhardt R, McCombie WR, de la Bastide M, Dedhia N, Blöcker H, Hornischer K, Nordsiek G, Agarwala
R, Aravind L,Bailey JA, Bateman A, Batzoglou S, Birney E, Bork P, Brown DG, Burge CB, Cerutti L, Chen
HC, Church D, Clamp M, Copley RR, Doerks T, Eddy SR, Eichler EE, Furey TS,Galagan J, Gilbert
JG, Harmon C, Hayashizaki Y, Haussler D, Hermjakob H, Hokamp K, Jang W, Johnson LS, Jones TA, Kasif
S, Kaspryzk A, Kennedy S, Kent WJ, Kitts P,Koonin EV, Korf I, Kulp D, Lancet D, Lowe TM, McLysaght
A, Mikkelsen T, Moran JV, Mulder N, Pollara VJ, Ponting CP, Schuler G, Schultz J, Slater G, Smit AF, Stupka
E,Szustakowski J, Thierry-Mieg D, Thierry-Mieg J, Wagner L, Wallis J, Wheeler R, Williams A, Wolf YI, Wolfe
KH, Yang SP, Yeh RF, Collins F, Guyer MS, Peterson J, Felsenfeld A,Wetterstrand KA, Patrinos A, Morgan
MJ, de Jong P, Catanese JJ, Osoegawa K, Shizuya H, Choi S, Chen YJ; International Human Genome
Sequencing Consortium.
56. • The human genome holds an extraordinary trove of
information about human development, physiology, medicine
and evolution. Here we report the results of an international
collaboration to produce and make freely available a draft
sequence of the human genome. We also present an initial
analysis of the data, describing some of the insights that can
be gleaned from the sequence.
• Here we report the results of a collaboration involving 20
groups from the United States, the United Kingdom, Japan,
France, Germany and China to produce a draft sequence of
the human genome.
• Of course, navigating information spanning nearly ten orders
of magnitude requires computational tools to extract the full
value.
57. FIGURA 1. Línea de tiempo de los análisis genómicos a gran escala.
Nature 409, 860-921(15 February 2001)doi:10.1038/35057062
http://www.nature.com/nature/journal/v409/n6822/fig_tab/409860a0_F1.html
58. FIGURE 3. The automated production line for sample preparation at the Whitehead
Institute, Center for Genome Research.
Nature 409, 860-921(15 February 2001)doi:10.1038/35057062
http://www.nature.com/nature/journal/v409/n6822/images/409860ac.2.jpg
59. • Science 16 February 2001:
Vol. 291. no. 5507, pp. 1304 - 1351
DOI: 10.1126/science.1058040
• REVIEW
• The Sequence of the Human Genome
• J. Craig Venter,1* Mark D. Adams,1 Eugene W. Myers,1 Peter W. Li,1 Richard J. Mural,1 Granger G. Sutton,1 Hamilton O.
Smith,1 Mark Yandell,1 Cheryl A. Evans,1Robert A. Holt,1 Jeannine D. Gocayne,1 Peter Amanatides,1 Richard M. Ballew,1 Daniel
H. Huson,1 Jennifer Russo Wortman,1 Qing Zhang,1Chinnappa D. Kodira,1 Xiangqun H. Zheng,1 Lin Chen,1 Marian
Skupski,1 Gangadharan Subramanian,1 Paul D. Thomas,1 Jinghui Zhang,1George L. Gabor Miklos,2 Catherine Nelson,3 Samuel
Broder,1 Andrew G. Clark,4 Joe Nadeau,5 Victor A. McKusick,6 Norton Zinder,7 Arnold J. Levine,7Richard J. Roberts,8 Mel
Simon,9 Carolyn Slayman,10 Michael Hunkapiller,11 Randall Bolanos,1 Arthur Delcher,1 Ian Dew,1 Daniel Fasulo,1 Michael
Flanigan,1Liliana Florea,1 Aaron Halpern,1 Sridhar Hannenhalli,1 Saul Kravitz,1 Samuel Levy,1 Clark Mobarry,1 Knut
Reinert,1 Karin Remington,1 Jane Abu-Threideh,1Ellen Beasley,1 Kendra Biddick,1 Vivien Bonazzi,1 Rhonda Brandon,1 Michele
Cargill,1 Ishwar Chandramouliswaran,1 Rosane Charlab,1 Kabir Chaturvedi,1Zuoming Deng,1 Valentina Di Francesco,1 Patrick
Dunn,1 Karen Eilbeck,1 Carlos Evangelista,1 Andrei E. Gabrielian,1 Weiniu Gan,1 Wangmao Ge,1Fangcheng Gong,1 Zhiping
Gu,1 Ping Guan,1 Thomas J. Heiman,1 Maureen E. Higgins,1 Rui-Ru Ji,1 Zhaoxi Ke,1 Karen A. Ketchum,1 Zhongwu Lai,1 Yiding
Lei,1Zhenya Li,1 Jiayin Li,1 Yong Liang,1 Xiaoying Lin,1 Fu Lu,1 Gennady V. Merkulov,1 Natalia Milshina,1 Helen M.
Moore,1 Ashwinikumar K Naik,1Vaibhav A. Narayan,1 Beena Neelam,1 Deborah Nusskern,1 Douglas B. Rusch,1 Steven
Salzberg,12 Wei Shao,1 Bixiong Shue,1 Jingtao Sun,1 Zhen Yuan Wang,1Aihui Wang,1 Xin Wang,1 Jian Wang,1 Ming-Hui
Wei,1 Ron Wides,13 Chunlin Xiao,1 Chunhua Yan,1 Alison Yao,1 Jane Ye,1 Ming Zhan,1 Weiqing Zhang,1Hongyu Zhang,1 Qi
Zhao,1 Liansheng Zheng,1 Fei Zhong,1 Wenyan Zhong,1 Shiaoping C. Zhu,1 Shaying Zhao,12 Dennis Gilbert,1 Suzanna
Baumhueter,1Gene Spier,1 Christine Carter,1 Anibal Cravchik,1 Trevor Woodage,1 Feroze Ali,1 Huijin An,1 Aderonke Awe,1 Danita
Baldwin,1 Holly Baden,1 Mary Barnstead,1Ian Barrow,1 Karen Beeson,1 Dana Busam,1 Amy Carver,1 Angela Center,1 Ming Lai
Cheng,1 Liz Curry,1 Steve Danaher,1 Lionel Davenport,1 Raymond Desilets,1Susanne Dietz,1 Kristina Dodson,1 Lisa
Doup,1 Steven Ferriera,1 Neha Garg,1 Andres Gluecksmann,1 Brit Hart,1 Jason Haynes,1 Charles Haynes,1 Cheryl
Heiner,1Suzanne Hladun,1 Damon Hostin,1 Jarrett Houck,1 Timothy Howland,1 Chinyere Ibegwam,1 Jeffery Johnson,1 Francis
Kalush,1 Lesley Kline,1 Shashi Koduru,1Amy Love,1 Felecia Mann,1 David May,1 Steven McCawley,1 Tina McIntosh,1 Ivy
McMullen,1 Mee Moy,1 Linda Moy,1 Brian Murphy,1 Keith Nelson,1Cynthia Pfannkoch,1 Eric Pratts,1 Vinita Puri,1 Hina
Qureshi,1 Matthew Reardon,1 Robert Rodriguez,1 Yu-Hui Rogers,1 Deanna Romblad,1 Bob Ruhfel,1Richard Scott,1 Cynthia
Sitter,1 Michelle Smallwood,1 Erin Stewart,1 Renee Strong,1 Ellen Suh,1 Reginald Thomas,1 Ni Ni Tint,1 Sukyee Tse,1 Claire
Vech,1Gary Wang,1 Jeremy Wetter,1 Sherita Williams,1 Monica Williams,1 Sandra Windsor,1 Emily Winn-Deen,1 Keriellen
Wolfe,1 Jayshree Zaveri,1 Karena Zaveri,1Josep F. Abril,14 Roderic Guigó,14 Michael J. Campbell,1 Kimmen V. Sjolander,1 Brian
Karlak,1 Anish Kejariwal,1 Huaiyu Mi,1 Betty Lazareva,1 Thomas Hatton,1Apurva Narechania,1 Karen Diemer,1 Anushya
Muruganujan,1 Nan Guo,1 Shinji Sato,1 Vineet Bafna,1 Sorin Istrail,1 Ross Lippert,1 Russell Schwartz,1Brian Walenz,1 Shibu
Yooseph,1 David Allen,1 Anand Basu,1 James Baxendale,1 Louis Blick,1 Marcelo Caminha,1 John Carnes-Stine,1 Parris
Caulk,1Yen-Hui Chiang,1 My Coyne,1 Carl Dahlke,1 Anne Deslattes Mays,1 Maria Dombroski,1 Michael Donnelly,1 Dale
Ely,1 Shiva Esparham,1 Carl Fosler,1 Harold Gire,1Stephen Glanowski,1 Kenneth Glasser,1 Anna Glodek,1 Mark Gorokhov,1 Ken
Graham,1 Barry Gropman,1 Michael Harris,1 Jeremy Heil,1 Scott Henderson,1Jeffrey Hoover,1 Donald Jennings,1 Catherine
Jordan,1 James Jordan,1 John Kasha,1 Leonid Kagan,1 Cheryl Kraft,1 Alexander Levitsky,1 Mark Lewis,1Xiangjun Liu,1 John
Lopez,1 Daniel Ma,1 William Majoros,1 Joe McDaniel,1 Sean Murphy,1 Matthew Newman,1 Trung Nguyen,1 Ngoc Nguyen,1 Marc
Nodell,1Sue Pan,1 Jim Peck,1 Marshall Peterson,1 William Rowe,1 Robert Sanders,1 John Scott,1 Michael Simpson,1 Thomas
Smith,1 Arlan Sprague,1Timothy Stockwell,1 Russell Turner,1 Eli Venter,1 Mei Wang,1 Meiyuan Wen,1 David Wu,1 Mitchell
Wu,1 Ashley Xia,1 Ali Zandieh,1 Xiaohong Zhu1
60. • A 2.91-billion base pair (bp) consensus sequence of the euchromatic portion of the human genome was
generated by the whole-genome shotgun sequencing method. The 14.8-billion bp DNA sequence
was generated over 9 months from 27,271,853 high-quality sequence reads (5.11-fold coverage of the
genome) from both ends of plasmid clones made from the DNA of five individuals. Two assembly
strategies--a whole-genome assembly and a regional chromosome assembly--were used, each
combining sequence data from Celera and the publicly funded genome effort. The public data were
shredded into 550-bp segments to create a 2.9-fold coverage of those genome regions that had been
sequenced, without including biases inherent in the cloning and assembly procedure used by the publicly
funded group. This brought the effective coverage in the assemblies toeightfold, reducing the number and
size of gaps in the final assembly over what would be obtained with 5.11-fold coverage. The two
assembly strategies yielded very similar results that largely agree with independent mapping data. The
assemblies effectively cover the euchromatic regions of the human chromosomes. More than 90% of the
genome is in scaffold assemblies of 100,000 bp or more, and 25% of the genome is in scaffolds of
10 million bp or larger. Analysis of the genome sequence revealed 26,588 protein-encoding transcripts for
which there was strong corroborating evidence and an additional ~12,000 computationally derived genes
with mouse matches or other weak supporting evidence. Although gene-dense clusters are obvious,
almost half the genes are dispersed in low G+C sequence separated by large tracts of apparently
noncoding sequence. Only 1.1% of the genome is spanned by exons, whereas 24% is in introns, with
75% of the genome being intergenic DNA. Duplications of segmental blocks, ranging in size up to
chromosomal lengths, are abundant throughout the genome and reveal a complex evolutionary history.
Comparative genomic analysis indicates vertebrate expansions of genes associated with neuronal
function, with tissue-specific developmental regulation, and with the hemostasis and immune
systems. DNA sequence comparisons between the consensus sequence and publicly funded genome
data provided locations of 2.1 million single-nucleotide polymorphisms (SNPs). A random pair of human
haploid genomes differed at a rate of 1 bp per 1250 on average, but there was marked heterogeneity in
the level of polymorphism across the genome. Less than 1% of all SNPs resulted in variation in proteins,
but the task of determining which SNPs have functional consequences remains an open challenge.
61. Fig. 2. Flow diagram
for sequencing
pipeline. Samples are
received, selected,
and processed in
compliance with
standard operating
procedures, with a
focus on quality within
and across
departments. Each
process has defined
inputs and outputs
with the capability to
exchange samples and
data with both
internal and external
entities according to
defined quality
guidelines.
Manufacturing
pipeline processes,
products, quality
control measures, and
responsible parties are
indicated and are
described further in
the text.
J. C. Venter et al., Science 291, 1304 -1351 (2001)
66. Definiciones
• Describes the new research environments that support advanced data
acquisition, data storage, data management, data integration, data
mining, data visualization and other computing and information
processing services over the Internet (NSF, 2003).
• The comprehensive infrastructure needed to capitalize on dramatic
advances in information Technology. Integrates hardware for
computing, data and networks, digitally-enabled sensors, observatories
and experimental facilities, and an interoperable suite of software and
middle-ware services and tools. Investments in interdiscip-linary teams
and cyberinfrastructure professionals with expertise in algorithm
development, system operations, and applications development are
also essential to exploit the full power of cyberinfrastructure to create,
disseminate, and preserve scientific data, information and knowledge
(NSF 2007).
• Technological solution to the problem of efficiently connecting data,
computers, and people with the goal of enabling derivation of novel
scientific theories and knowledge (Wikipedia 2009).
67. Cyberinfrastructure
• Describes the new research environments that support advanced
data acquisition, data storage, data management, data integration,
data mining, data visualization and other computing and information
processing services over the Internet (NSF, 2003).
• The comprehensive infrastructure needed to capitalize on dramatic
advances in information Technology. Integrates hardware for
computing, data and networks, digitally-enabled sensors,
observatories and experimental facilities, and an interoperable suite
of software and middle-ware services and tools. Investments in
interdiscip-linary teams and cyberinfrastructure professionals with
expertise in algorithm development, system operations, and
applications development are also essential to exploit the full power
of cyberinfrastructure to create, disseminate, and preserve scientific
data, information and knowledge (NSF 2007).
• Technological solution to the problem of efficiently connecting data,
computers, and people with the goal of enabling derivation of novel
scientific theories and knowledge (Wikipedia 2009).
69. e-Science
• Originally referred to experiments that connected together a few powerful
computers located at different sites and, later, a very large number of
modest PCs across the world in order to undertake enormous calculations or
process huge amounts of data. The coordination of geographically dispersed
computing and data resources has become known as the Grid. This is
shorthand for the emerging standards and technology – hardware and
software – being developed to enable and simplify the sharing of resources.
The analogy is an electric power grid, which comprises numerous varied
resources connected together to contribute power into a shared pool that
users can easily access when they need it.
• What is exciting about the Grid is that the combination of extensive
connectivity, massive computer power and vast quantities of digitized data –
all three of which are still rapidly expanding – making possible new
applications that are orders of magnitude more potent than even a few years
ago.
• The term 'e-research' is sometimes used instead of 'e-science', with the
advantage that gives more emphasis to the end result of better, richer, faster
or new research results, rather than the technologies used to get them.
National Centre for e-Social Science. 2008. Frequently Asked Questions.
Diponible en:
http://www.ncess.ac.uk/about_eSS/faq/?q=General_1#General_1
75. Revistas electrónicas de vanguardia
• Formato electrónico
– Datos complementarios
– Barato
– Múltiples formatos
– Identificadores digitales
– Interactividad
– Sin límites de extensión
• Eficiencia e inmediatez
• Acceso abierto
• Uso libre
• Evaluación por pares identificados (no anónimos)
• Indización y archivo en bases de datos
• Indicadores bibliométricos
– Las medidas de impacto
– Información sobre la Cita
– artículos relacionados
• Web 2.0 social
– Marcadores sociales
– Comentarios y notas
– Blog de cobertura
• Código de ética de publicación científica explícito
• Políticas explícitas de Autoarchivo
77. Revistas de resultados negativos
JOURNAL OF NEGATIVE RESULTS
- ECOLOGY & EVOLUTIONARY BIOLOGY -
78. Retractación
• Para la National Library of Medicine un artículo después de su
publicación puede ser objeto de las siguientes modificaciones:
errata, retractación -total o parcial-, corrección y re publicación,
plagio -publicación duplicada-, comentarios -incluye réplicas
del autor-, versiones actualizadas y re publicaciones -
reimpresos-. De todas ellas, la retractación y el plagio tiene un
mayor peso tanto científico como
social http://www.nlm.nih.gov/pubs/factsheets/errata.html
• De acuerdo con la Real Academia de la Lengua Española, la
retractación consiste en la acción de revocar expresamente lo
que se ha
dicho. http://buscon.rae.es/draeI/SrvltConsulta?TIPO_BUS=3&
LEMA=retractarse
79. • La retractación y fraude han ido construyendo un
camino conjunto.
• Las autoridades académicas y gubernamentales han
tenido que tomar decisiones para evitar las malas
prácticas científicas.
• Se ha establecido la retractación como una práctica
científica más.
• La retractación puede clasificarse en tres categorías:
– 1) errores voluntarios, dentro de la que están la falsificación,
la fabricación o el plagio;
– 2) errores invonluntarios que incluyen errores en el
muestreo, de procedimientos, o en el análisis de datos,
fallas en la reproducción de los resultados, omisión
accidental de información acerca de los métodos o el
análisis de datos, por mencionar los más comunes y
– 3) aquellas que no caen en alguna de las anteriores
82. Implicaciones
Para la National Library of Medicine, un artículo después de su
publicación puede ser modificado como:
- Erratas.
- Retractación (total o parcial).
- Corrección y Republicacón.
- Plagio (Publicación dulicada).
- Comentarios (Con réplicas del autor).
- Versiones actualizadas (republicaciones).
La retractación y el plagio tienen un mayor peso científico y
social.
83. Clasificación
Autoridades de tipo académico y gubernamental han tomado
decisiones para evitar las malas prácticas científicas, aunque
también se ha establecido la "retractación" como una práctica
científica.
La retractación se clasifica en:
1. Errores voluntarios (falsificación, la fabricación o el plagio).
2. Errores invonluntarios (errores en el muestreo, de
procedimientos, o en el análisis de datos, fallas en la
reproducción de los resultados, omisión accidental de
información acerca de los métodos o el análisis de datos).
3. Otro tipo.
84. Ejemplo (Error voluntario).
El caso del doctor Hwang Woo Suk
(investigador surcoreano), propició
fuertes críticas sobre el proceso de
revisión por pares.
La comisión de investigación de la
Universidad de Seúl, confirmó en 2006
que el investigador falsificó sus
resultados.
El motivo por el cuál, la revisión por pares
de Science no detectó mala conducta
científica fué porque no hubo criterios en
las 9 áreas principales de revisión que se
refieran a la falsificación de datos.
89. Acceso abierto
• Costo de la literatura científica.
• La ciencia se subvenciona con fondos
gubernamental (públicos).
• Mandatos
– Welcome trust
– NIH
90. Gratuito: se refiere a que la consulta del
documento completo en línea es sin costo
Repositori Acceso
o abierto
Libre: ofrece algunos derechos de uso adicionales
como el de modificar y distribuir la obra siempre y
cuando se cite a el o los autores
Acceso abierto
via oro (Gold
Route)
Licencia que especifica los derechos de uso:
Acceso abierto vía Creative Commons
verde (Green (http://creativecommons.org.mx/ )
Route)
91. e-print (e-impreso)
Es la versión digital de un documento de investigación (generalmente un
artículo de revista, pero también podría ser una tesis, ponencias, capítulos de
libros, o un libro) que está accesible en línea porque ha sido depositado en un
repositorio digital
Interactividad
Diseño
e-print Integración
Agregación
Movilidad
Pre-prints (artículos Post-prints (la versión
antes de que sean resultado de la revisión por
evaluados por pares) pares)
92. Herramientas dinámicas, constituidas por
la infraestructura, los programas, la
información y el personal que lo mantiene
Investigadores
y consulta
registran y depositan su producción científica
Repositorio
Objetivos principales :
Garantizar la identificación de los autores
Facilitar el contacto entre ellos Beneficios y ventajas a la
Favorecer la discusión de los trabajos práctica científica
depositados.
Contribuir al aumento de las citaciones
(impacto internacional)
93. Libros y revistas como uno
El entorno digital ha revolucionado la forma en que el contenido es accesible y utilizado.
Los usuarios quieren información, y rápido - por lo general no se preocupan
por el contenedor que entra en juego ya no es necesario mantener "libro" o "diario" de
contenido independiente - "los dos nunca se cumplen" simplemente no es el caso.
Los libros pueden ser vendidos en suscripción, números de la revista se pueden vender como
productos independientes. Los libros pueden ser comercializados a los suscriptores de
revistas y libros que sus clientes pueden aprender acerca de susrevistas ... son con
frecuencia, o debería ser, el mismo cliente.
Pero, ¿qué quieres que tus usuarios?
¿Qué contenido integrado significa para la editorial?
¿Cómo se puede crear y hospedar contenido multi-propósito, y cómo se puede comercializar y
vender es así?
¿Qué modelos de negocio y de fijación de precios debe tener en cuenta? ¿Cuáles
son los beneficios para los usuarios y los editores?
¿Hay algún inconveniente? En este seminario se oye de los bibliotecarios acerca de los
problemas para los usuarios y de los editores acerca de los desafíos y las
oportunidades de creación de libros y revistas como uno solo.
http://www.alpsp.org/ngen_public/article.asp?aid=347653
108. XML
XML, siglas en inglés
de eXtensible Markup Language ('lenguaje
de marcas extensible'), es
un metalenguaje extensible de etiquetas
desarrollado por el World Wide Web
Consortium (W3C).
114. CITAS
• Una cita es una forma de referencia breve colocada entre
paréntesis dentro de un texto o añadida a un texto como nota a
pie de página, al final de un capítulo, o al final de la obra
completa.
• La citación permite identificar la publicación de la que se extrae
la idea parafraseada.
• Ejemplo: (Umberto Eco, 1993, p.240-245)
• La norma ISO-690 define en su capítulo 9 las relaciones entre las
referencias y las citaciones bibliográficas, y los diferentes
métodos de citas.
• Cuando uno cita un documento o elige hacerlo es porque
considera la información relevante, de entre muchas otras.
115. Citas
industria críticas y sugerencias
leídos y certificados (1)
administración de los colegas
disciplinas afines leídos y aceptados (9)
Ignorados (90)
temas de trabajo artículos publicados (100)
proyectos producción de
argumentaciones
conocimientos interpretaciones
solicitudes
de subvención
científicos
Lectura
financiera
de los artículos
escritos por
notas de
contratación los colegas
labora torio
de personal investigadores
equipos
compras Coloquios, seminarios
grupos de trabajo
Herve, P., Jean-Pierre, C., & Michel, C. (1995). Cienciometría: el estudio cuantitativo de la actividad científica. de la bibliometría a la
vigilancia tecnológica. (p. 110).
117. Bibliometría
para
palabras
Fig. 2. Co-word space of the top 50 highly frequent and bursty words used in the top
10% most highly cited PNAS publications in 1982-2001.