viernes, 1 de abril de 2011

El amor.

***El amor***

El amor suele conocerse como una de las maneras directas de expresion pasional entre dos personas, este se puede ser expresado en muchas formas de apreciar a otras personas, el amor tiene varias definiciónes de amor en si es bastante global e involucra a varios tipos de amor; amor humano, pero también tenemos el amor fraternal entre familiares y amigos, el amor al prójimo, el amor romántico, el de tipo sexual, hacia los animales, el platónico, hacia determinados principios, hacia lo abstracto, hacia un dios o religión y el amor personal.
El amor dialéctico es la manera de pensar, como debemos amar. En este análisis hemos visto como se debe hacerlo. Lo que importa es amar, no importa si te arregles o no, pero amar es algo que no debemos dejar.
Pero no a la dedicación absoluta, dentro del amor lo más importante es tu pareja, pero en la vida lo más importante no es el amor, hay otras cosas que hacer en este mundo.
El amor es un concepto universal relativo a la (sociología) afinidad entre seres, definido de diversas formas según las diferentes ideologías y puntos de vista.
En el contexto filosófico, el amor es una También puede describirse como acciones dirigidas hacia otros (o hacia uno mismo) y basadas en la compasión, o bien como acciones dirigidas hacia otros y basadas en el afecto.
La palabra amor abarca una gran cantidad de sentimientos diferentes, desde el deseo pasional y de intimidad del hasta la proximidad emocional asexual del amor familiar y ely hasta la profunda del amor religioso. En este último terreno, trasciende del sentimiento y pasa a considerarse la manifestación de un estado de la identificada en algunas religiones con mismo y con la fuerza que mantiene unido el
Las emociones asociadas al amor pueden ser extremadamente poderosas, llegando con frecuencia a ser irresistibles. El amor en sus diversas formas actúa como importante facilitador de las relaciones interpersonales y, debido a su importancia psicológica central, es uno de los temas más frecuentes en las artes creativas (música, cine, literatura).
Desde el punto de vista de la lo que conocemos como amor parece ser un estado evolucionado del primitivo instinto de supervivencia, que mantenía a los ante las amenazas y facilitaba la continuación de la
La diversidad de usos y significados y la complejidad de los sentimientos que abarca hacen que el amor sea especialmente difícil de definir de un modo consistente, aunque, básicamente, el amor es interpretado de dos formas: bajo una concepción Altruismobasada en la compasión y la colaboración, y bajo otra , basada en el interés individual y la rivalidad.
Terminamos el tema con una breve conclusión en la cual podemos decir que el “amor” es un tema muy ambiguo, todos lo ven con una perspectiva diferente El amor es tan bueno como malo. Una conclusión viable es que no es inofensivo, sino la emoción más peligrosa existente. El odio mezclado con amor, da lugar a los crímenes pasionales más terribles. La falta de amor, condena a la locura, o frialdad y tosquedad social. El exceso, crea situaciones asfixiantes e incomodantes, o peor, crea adicción. La necesidad, crea soluciones desesperadas para mitigarla.

gestion de la informacion



Curso “Gestion de la informacion”
Mtro. Héctor Enrique Martínez H.

Reporte de Investigación
Investigacion sobre la información.

Daniel Herrera
Ichair Gutierrez Romero.
Abraham López
Grupo 02IDVA

11 de marzo de 2011
Temario:
Introducción

La búsqueda documental.

Fuentes de información.

Concepto

Tipología

Nivel informativo

Tipos de fuentes

Obras de referencia.

Clasificación.

Colección de referencia

Objetivos

Búsqueda bibliografica.

Transferencia de la información y tipologias de documentales

Premisas

Búsqueda de documental

Búsqueda bibliografica

Internet invisible

Búsqueda bibliografica

Herramientas de búsqueda

Historia de el Internet

Directorios

Metabuscadores

Búsqueda en base de estructura de las bases

Definir criterios de búsqueda

Operadores

Delimitadores

Uso de truncadores

Búsqueda de libros

Búsqueda de artículos

Glosario

Palabras a definir

Conclusion

Indice de paginas consultadas



Introducción
Algo nuevo caracteriza a mi juicio este momento preciso de la historia en lo referente a las fuentes del conocimiento. A diferencia de cualquier tiempo pasado donde la información era escasa y difícil de obtener, el último medio siglo y particularmente los últimos diez años se caracterizan por la abundancia, mejor dicho, por la superabundancia de información. El problema ahora, y por primera vez en la historia, no es la búsqueda y la obtención de la información sino la selección y la interpretación de la misma. No se trata ahora de poder ir a congresos, sino de seleccionar los más adecuados y válidos en relación a las nuevas tecnologías y sus implicaciones-aplicaciones educativas. No se trata de acceder a revistas y a publicaciones sino de hacerlo con agilidad y rapidez y de seleccionar la información puntual sin soslayar por ello la lectura de libros y obras sólidas con información sedimentada y moderna.
Pienso que como docentes estamos obligados a tamizar a la luz de nuestra experiencia e investigación la información ajena y de enseñar a nuestros alumnos esa misma capacidad de adquirir información primero y de depurarla después.
Algunas fuentes de información habituales en nuestros días, y de las cuales podemos proveernos de conocimientos relacionados con Nuevas Tecnologías Aplicadas a la Educación, además de la propia experiencia personal con la docencia en la materia.
LIBROS
La relación de bibliografía para Nuevas Tecnologías Aplicadas a la Educación: se ha dividido en los grupos que siguen:
Bibliografía general: Comprende aquellos libros generales de Nuevas Tecnologías Aplicadas a la Educación que se pueden utilizar en la preparación o el estudio de la mayoría de los temas relacionados.
Obras enciclopédicas: Se incluyen en este apartado obras de gran extensión, adecuadas para consultas generales sobre la asignatura fundamentalmente, ya que no es posible extraer toda la información acumulada con los años, de las revistas originales.
Bibliografía específica: Se refiere a la utilizada en la preparación de aspectos concretos relacionados con NNTT aplicadas a la Educación. Se trata de una relación de obras recomendables para ampliar y preparar ciertos aspectos de determinados temas. Para facilitar su consulta, se presenta ordenada temáticamente.
PUBLICACIONES PERIÓDICAS:
Las revistas, ya sean en formato ordinario o electrónico, suplen con una aparición periódica y más frecuentemente que los libros, el posible desfase de éstos, y además permiten consultar los trabajos originales en el terreno de nuestro interés, con lo que esta consulta tiene de formativa y sugerente. La imposibilidad de disponer de todas las revistas en las que hay publicados artículos que puedan interesarnos, y la limitación de tiempo para su lectura, nos obliga a restringirnos a las más fundamentales, y la falta de consulta de las restantes se puede suplir con la revisión de las publicaciones de índices y de resúmenes, y la posterior solicitud de separatas a los autores o de fotocopias a los centros de documentación e información científica, de aquellos artículos de interés. Entre otras revistas o publicaciones periódicas considero especialmente interesantes para su consulta las siguientes:
http://sauce.pntic.mec.es/~alglobalComunicación y Pedagogía. "Nuevas Tecnologías y Recursos Didácticos".
http://www.uib.es/depart/gte/revelec.htmlEDUTEC. Revista Electrónica de Tecnología Educativa.(Grupo de tecnologías Educativa. Dpto. Ciencias de la Educación de la Universidad de las Islas Baleares).
http://www.inf-cr.uclm.es/~adie/revista.htmADIE Revista de Enseñanza y Tecnología de la Asociación para el Desarrollo de la Informática Educativa.
http://www.pangea.org/org/espiral/ESPIRAL: Nuevas Tecnologías y Educación
http://www.ciberaula.es/quaderns Revista digital "Ciberaula". Revista de Pedagogía y Nuevas Tecnologías Aplicadas a la Escuela.
http://www.doe.d5.ub.es/teBiblioteca Virtual de Tecnología Educativa. (Universidad de Barcelona).
http://www.redcyt.gov.ar/edupage.htmEDUPAGE Boletín sobre tecnología de la información y educación.
http://www.doe.d5.ub.es/te/PBWEB/. Revista Pixel-Bit.Revista Electrónica de medios y educación. Secretariado de Recursos Audiovisuales y Nuevas Tecnologías de la Universidad de Sevilla.
http://www.seric.es/quaderns/quaderns.htm. Cuadernos Digitales (Quaderns Digitals). Sobre Nuevas Tecnologías en la Educación.
http://www.quipus.com.mx/artant.htmQUIPUS. La Tecnología de la enseñanza.
http://www.ucm.es/BUCM/edu/0500.htmEducación e Internet. Biblioteca de la Facultad de Educación de la Universidad Complutense de Madrid.
http://www.pm-press.com/. Diario de Tecnología de la Información
www.teleline.es/personal/comunicaCOMUNICAR Revista de medios de comunicación y educación. Grupo Pedagógico Andaluz "Prensa y Educación".
http://www.ucm.es/info/multidoc/multidoc/index.htmCUADERNOS DE DOCUMENTACIÓN MULTIMEDIA. Facultad de Ciencias de la Información. Universidad Complutense de Madrid.UCM
http://www.iies.es/teleco/bit.html. Revista BIT Servicio WWW del COIT y la AEIT
http://www.uaa.mx:8001/LISTAS/BINARIOLENGUAJE BINARIO. Explorando Internet y el mundo de la computación. Varios envíos diarios. Editor: Jorge Gómez Jiménez. Para suscribirse, enviar un mensaje a Maiser@uaa.dped.uaa.mx con el texto: subscribe binario.
luisangel@enredando.com EN.RED.ANDO. Publicación semanal de cibercultura. Editor: Luis Angel Fernández Hermana,
http://www.uv.es/~aliaga/bordon2.htmlEnredados. Aplicaciones y experiencias de Internet en España con interés Educativo (Francisco Aliaga Universidad de Valencia).
http://www.gdl.uag.mx/tecinst/docum.htm. Tecnología Instruccional
http://www.geocities.com/Athens/Ithaca/8100LA PUERTA. Revista de educación e informática
http://www.xtec.es/recursos/curricul/tecinf/ncet/index.htm. Tecnología de la Información Estimular para Educar.
EXTRA!-NET El impacto de la información digital en las organizaciones. Semanal. Editor: Alfons Cornella. Para suscribirse, enviar un mensaje a listserv@listserv.rediris.es con el texto: subscribe extra-net
http://www.uva.es/aufop/publica/revaufop.htm Revista Interuniversitaria de Formación del Profesorado (Universidad de Valladolid).
http://www.pntic.mec.es/revista2TELÉMACO Revista electrónica del Ministerio de Educación y Cultura
http://www.umuc.edu/iuc/cmc96/. Artículos de Conferencias
http://www.mec.es/educ.html. Educación (MEC)
http://www2.uca.es/RELIEVE/RELIEVE Revista Electrónica de Investigación y Evaluación Educativa (Asociación Interuniversitaria de Investigación Pedagógica).
http://www.um.es/%7Edepmide/RIE/RIE Revista Investigación Educativa
http://www.ucm.es/info/quiron/rep.htmRevista Española de Pedagogía
http://www.uca.es/HEURESIS/HEURESIS Revista de investigación curricular y educativa.
http://www.usc.es/didoe/doc/revista/frames.htm. Revista Innovación Educativa Departamento de Didactica y Organización Escolar de la Universidad de Santiago de Compostela
http://www.el-mundo.es/campusEl Mundo. Suplemento de Educación
http://www.ole.net/oleOn line educator. Sobre TIC y educación.
Revista Comunicación, Lenguaje y Educación. Aprendizaje, S.A.
Apuntes de Educación "Nuevas Tecnologías". Madrid, Anaya.
Cuadernos de Educación y Nuevas Tecnologías de la Información. MEC-Fundesco.
Revista de educación VELA MAYOR. Anaya, año 1 nº3, 1994. (Monográfico dedicado a Tecnología de la Educación).
Revista de Tecnología Educativa. Sección de Pedagogía, Cibernética y Tecnología Educacional. Trujillo (Perú), Universidad Nacional de Trujillo.
EDUCATIONAL TECHNOLOGY. Revista mensual de Educational Technology Pub. Palidase Avenue, Englewood Cliffs, NJ 07632.
EDUCATIONAL TECHNOLOGY RESEARCH AND DEVELOPMENT. Publicada por la Association for Educational Communication and Technology (AECT), 1126, 16 NW Washington DC 20036.
Revista de Educación. Centro de Publicaciones del MEC.
Revista de Ciencias de la Educación. Madrid, Eraso.
Revista Española de Pedagogía. Madrid, Instituto San José de Calasanz de Pedagogía-CSIC.
Bordón. Madrid, Sociedad Española de Pedagogía.
Revista de Filosofía y Ciencias de la Educación. Tarragona, Universitas Tarraconensis.
Cuadernos de Pedagogía. Madrid, Edisa.
Revista de investigación e innovación escolar: Investigación en la Escuela. Sevilla, Servicio de Publicaciones de la Universidad de Sevilla.
Vida Escolar, Madrid, Servicio de Publicaciones del M.E.C.
MATERIAL AUDIOVISUAL.
El sonido y la imagen pueden utilizarse para proporcionar en el aula deNuevas Tecnologías Aplicadas a la Educación información que sería difícil presentar de otra manera. Las clases expositivas y demostraciones prácticas pueden alcanzar a una audiencia mayor o más dispersa si se distribuyen a través de medios audiovisuales como, por ejemplo, el audiocasete o el vídeo. Sin embargo, los medios audiovisuales tienen también un importante valor para aumentar la capacidad de los estudiantes para analizar y valorar información compleja o ambigua y para aplicar principios "abstractos" y teorías a situaciones y fenómenos reales. De hecho, podría afirmarse que los medios audiovisuales pueden ser menos eficaces que otros medios en la simple aportación de información, pero tienen un potencial claramente mayor para ayudar a darle sentido a la información.
Entre los medios audiovisuales a los que podemos acudir en la búsqueda de información sobre Nuevas Tecnologías Aplicadas a la Educación están: los videocasetes, casetes, emisiones radiofónicas, cintas magnéticas, televisión, videotexto, incluso la prensa nacional e internacional.
Del Programa de Formación del Profesorado (P.F.P.) de la UNED: 

 Iniciación a la lectura de la imagen y el conocimiento de los medios audiovisuales.(Material del curso a distancia que introduce a profesores y a profesionales en el lenguaje y las técnicas de los medios audiovisuales (fotografía, prensa y vídeo).
 La Imagen. (Lenguaje audiovisual: imagen y realidad, signos básicos, encuadre, luz y color. Lectura de imágenes. Explotación de los medios audiovisuales en el campo educativo.
 La Fotografía.(Técnicas de la fotografía: la cámara, objetivos, la emulsión, el laboratorio, la composición. Experiencias escolares).
 La Prensa.(La elaboración de un periódico: entrada de noticias, composición e impresión, renovación informática. Análisis de la prensa. La prensa en la escuela).
 El Vídeo. (Principios tecnológicos del vídeo: formación de la imagen. La señal de vídeo. La televisión en color. El magnetoscópio. La cámara. La cinta, cables y conexiones. La edición. El vídeo en la escuela).
 La Imagen en movimiento.(Tecnología, proceso de producción y lenguaje del cine y del vídeo: la ilusión del movimiento. El cine de animación. Las imágenes de síntesis. El guión. El rodaje. La postproducción).
 La Imagen sonora.(Lenguajes con componentes sonoros. Características físicas del sonido. El registro y la manipulación de la señal de audio. Manejo de los micrófonos según las condiciones acústicas. Síntesis electrónica. Doblaje. Mezclas. Usos del sonido en diferentes medios, con especial referencia al cine y vídeo).
 El Cómic.(En su primera parte se abordan los entresijos del lenguaje del Cómic, y en la segunda parte se describen las diversas fases en el proceso de realización. En la tercera y última, la lectura crítica de las historietas y las posibilidades formativas de los tebeos en el ámbito educativo).
 El Ordenador en las aulas. (Usos educativos del ordenador en la práctica del aula. Reflexiones sobre el porqué, para qué y cómo usar este medio: enseñanza asistida por ordenador, tratamiento de textos, bases de datos y Logo).
 Curso de Lectura de Imágenes y Medios Audiovisuales del Programa de Formación del Profesorado (P.F.P.) de la UNED. (2 audiocasetes).

Este multimedia básico (textos, vídeos y audiocasetes), ofrece una introducción al lenguaje de estos medios de comunicación, indica métodos de lectura y sugiere utilizaciones creativas, especialmente en el campo educativo. También proporciona una formación básica en las técnicas de fotografía, de prensa y especialmente de vídeo. Además, promueve la realización de experiencias educativas con esos medios de comunicación. 

ACCESO A BASES DE DATOS ELECTRÓNICAS ("CD-ROM") Y MULTIMEDIA RELACIONADOS CON NUEVAS TECNOLOGÍAS APLICADAS A LA EDUCACIÓN.
El acceso a un volumen considerable de información organizada en lo que usualmente denominamos como base de datos, esto es, en almacenamientos de información organizada de acuerdo con cierta estructura, cada vez se va haciendo más dificultoso e imprescindible tanto en el terreno de la investigación como en el de la docencia o para la mera consulta.
En la actualidad existen bases de datos en casi todas las áreas del conocimiento donde se puede consultar información sobre los trabajos de la comunidad científica ya sea de documentos primarios como los impresos y su consulta directa (libros y artículos publicados en las revistas) o bien "documentos ocasionales", "papers", "documentos técnicos", "actas de congresos", etc. Por lo general, la revisión de esta información inicialmente se ha realizado en consulta directa en las bibliotecas, o en consultas en un sistema informático conectado "en línea" con un ordenador central. En la actualidad caben nuevas posibilidades como las realizadas a través de un CD-ROM (Compact Disc - Read Only Memory). La incorporación de los CD-ROM a la informatización de la información ha facilitado el acceso de los usuarios a las bases de datos, flexibilizando y dinamizando la interacción con las mismas, y ello ha sido posible gracias a las potencialidades que la tecnología digital del disco óptico ofrece.
Entre las ventajas más notables, si comparamos el CD-ROM con otros medios y estrategias de búsqueda de información usuales están:
Posee una gran capacidad de almacenamiento, pudiendo archivar no sólo documentos en forma de texto, sino que permite almacenar sonidos e imágenes en vídeo.
Rapidez en la obtención de información.
Los discos ópticos tiene mayor vida útil y menores riesgos de deterioro accidental que los discos magnéticos.
El costo de búsqueda es menor que el realizado en grandes ordenadores en la modalidad "on line".
La utilización del CD-ROM por parte de los alumnos, aumenta el dominio de la gramática y del lenguaje, puesto que tienen que aprender a editar, redefinir y modificar la estrategia utilizada en la interacción con el ordenador, así como a escribir correctamente ortográfica y gramaticalmente.
Sin embargo este medio no está exento de limitaciones, de entre las que caben destacar las siguientes:
No se puede escribir sobre los ficheros ya insertados en el disco. Lo cual repercute en que no se pueda actualizar rápida y fácilmente. Por ello no son útiles para archivar documentos e información cuya obsolescencia es extremadamente rápida.
Falta de acceso, ya que al tener que realizarse una interacción individual sujeto-máquina es necesario que existan tantas de éstas, como sujetos tienden a la interación. Por tanto sólo un alumno cada vez puede acceder a la información contenida en el CD-ROM.
El usuario debe estar familiarizado con las posibles estrategias de búsqueda informatizada de información, con los Thesaurus, para la identificación de los descriptores; sin olvidar que deben además poseer un mínimo de alfabetización informática para la interacción con la máquina.
INFORMACIÓN PROCEDENTE DE REDES (INTERNET)
Ya hemos aludido anteriormente a la importancia que día a día está cobrando este potente instrumento de información y comunicación. La posibilidad de acceder desde una simple conexión telefónica a lo que ha dado en llamarse "autopistas de la información" no es una quimera ni una ilusión de futuro sino una realidad actual. En este momento una de las utilidades más notoria de este sistema es el "correo electrónico" que permite recibir y transmitir información instantáneamente. Pronto ese sistema instantáneo de recabar y ofrecer información sin límites ni fronteras va a condicionar cambios importantes que será necesario ordenar y gestionar.
Algunos ejemplos de direcciones interesantes que se pueden encontrar en la red y que de otro lado pueden suscitar interés son:
Para un profesor de Nuevas Tecnologías Aplicadas a la Educación, las ventajas del sistema son:
 Correo electrónico.
 Acceso a todo tipo de publicaciones científicas en su formato completo.
 Acceso a resúmenes de congresos y otro tipo de reuniones.
 Acceso rápido a material enviado o aceptado para su publicación.
 Acceso a bancos de imágenes.
 Intercambio y consultoría rápida con expertos en el tema, enviando y recibiendo información multimedia (sonido, imágenes y textos).
 Acceso a bancos de datos de otros equipos y grupos de trabajo.
 Participación en foros de discusión y debates telemáticos (listas de distribución).
Búsquedas selectivas de información sobre temas concretos (motores de búsqueda).
La historia de Internet
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
Orígenes de Internet
La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors(IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human Intelect(Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host ahost funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. 
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en laWorld Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en elhost porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver(manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.
Ideas a prueba
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC deIBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número dehosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS (Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para losrouters . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol, protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo parahost s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.
La transición hacia una infraestructura global
Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.
La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).
Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routersde la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en elservicio portador de la llamada Infraestructura Global de Información.
El papel de la documentación
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.
Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidosonline a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.
El futuro: Internet 2
Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores.
Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda.
Tipos de base de datos
Una base de datos es un “almacén” que nos permite guardar grandes cantidades de información de forma organizada para que luego podamos encontrar y utilizar fácilmente. A continuación te presentamos una guía que te explicará el concepto y características de las bases de datos.
El término de bases de datos fue escuchado por primera vez en 1963, en un simposio celebrado en California, USA. Una base de datos se puede definir como un conjunto de información relacionada que se encuentra agrupada ó estructurada.
Desde el punto de vista informático, la base de datos es un sistema formado por un conjunto de datos almacenados en discos que permiten el acceso directo a ellos y un conjunto de programas que manipulen ese conjunto de datos.
Cada base de datos se compone de una o más tablas que guarda un conjunto de datos. Cada tabla tiene una o más columnas y filas. Las columnas guardan una parte de la información sobre cada elemento que queramos guardar en la tabla, cada fila de la tabla conforma un registro.

Definición de base de datos

Se define una base de datos como una serie de datos organizados y relacionados entre sí, los cuales son recolectados y explotados por los sistemas de información de una empresa o negocio en particular.

Características

Entre las principales características de los sistemas de base de datos podemos mencionar:
· Independencia lógica y física de los datos.
· Redundancia mínima.
· Acceso concurrente por parte de múltiples usuarios.
· Integridad de los datos.
· Consultas complejas optimizadas.
· Seguridad de acceso y auditoría.
· Respaldo y recuperación.
· Acceso a través de lenguajes de programación estándar.

Sistema de Gestión de Base de Datos (SGBD)

Los Sistemas de Gestión de Base de Datos (en inglés DataBase Management System) son un tipo de software muy específico, dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan. Se compone de un lenguaje de definición de datos, de un lenguaje de manipulación de datos y de un lenguaje de consulta.

Control sobre la redundancia de datos:

Los sistemas de ficheros almacenan varias copias de los mismos datos en ficheros distintos. Esto hace que se desperdicie espacio dealmacenamiento, además de provocar la falta de consistencia de datos.
En los sistemas de bases de datos todos estos ficheros están integrados, por lo que no se almacenan varias copias de los mismos datos. Sin embargo, en una base de datos no se puede eliminar la redundancia completamente, ya que en ocasiones es necesaria para modelar las relaciones entre los datos.

Consistencia de datos:

Eliminando o controlando las redundancias de datos se reduce en gran medida el riesgo de que haya inconsistencias. Si un dato está almacenado una sola vez, cualquier actualización se debe realizar sólo una vez, y está disponible para todos los usuarios inmediatamente. Si un dato está duplicado y el sistema conoce esta redundancia, el propio sistema puede encargarse de garantizar que todas las copias se mantienen consistentes.

Compartición de datos:

En los sistemas de ficheros, los ficheros pertenecen a las personas o a los departamentos que los utilizan. Pero en los sistemas de bases de datos, la base de datos pertenece a la empresa y puede ser compartida por todos los usuarios que estén autorizados.

Mantenimiento de estándares:

Gracias a la integración es más fácil respetar los estándares necesarios, tanto los establecidos a nivel de la empresa como los nacionales e internacionales. Estos estándares pueden establecerse sobre el formato de los datos para facilitar su intercambio, pueden ser estándares de documentación, procedimientos de actualización y también reglas de acceso.

Mejora en la integridad de datos:

La integridad de la base de datos se refiere a la validez y la consistencia de los datos almacenados. Normalmente, la integridad se expresa mediante restricciones o reglas que no se pueden violar. Estas restricciones se pueden aplicar tanto a los datos, como a sus relaciones, y es el SGBD quien se debe encargar de mantenerlas.

Mejora en la seguridad:

La seguridad de la base de datos es la protección de la base de datos frente a usuarios no autorizados. Sin unas buenas medidas de seguridad, la integración de datos en los sistemas de bases de datos hace que éstos sean más vulnerables que en los sistemas de ficheros.

Mejora en la accesibilidad a los datos:

Muchos SGBD proporcionan lenguajes de consultas o generadores de informes que permiten al usuario hacer cualquier tipo de consulta sobre los datos, sin que sea necesario que un programador escriba una aplicación que realice tal tarea.

Mejora en la productividad:

El SGBD proporciona muchas de las funciones estándar que el programador necesita escribir en un sistema de ficheros. A nivel básico, el SGBD proporciona todas las rutinas de manejo de ficheros típicas de los programas de aplicación.
El hecho de disponer de estas funciones permite al programador centrarse mejor en la función específica requerida por los usuarios, sin tener que preocuparse de los detalles de implementación de bajo nivel.

Mejora en el mantenimiento:

En los sistemas de ficheros, las descripciones de los datos se encuentran inmersas en los programas de aplicación que los manejan.
Esto hace que los programas sean dependientes de los datos, de modo que un cambio en su estructura, o un cambio en el modo en que se almacena en disco, requiere cambios importantes en los programas cuyos datos se ven afectados.
Sin embargo, los SGBD separan las descripciones de los datos de las aplicaciones. Esto es lo que se conoce como independencia de datos, gracias a la cual se simplifica el mantenimiento de las aplicaciones que acceden a la base de datos.

Aumento de la concurrencia:

En algunos sistemas de ficheros, si hay varios usuarios que pueden acceder simultáneamente a un mismo fichero, es posible que el acceso interfiera entre ellos de modo que se pierda información o se pierda la integridad. La mayoría de los SGBD gestionan el acceso concurrente a la base de datos y garantizan que no ocurran problemas de este tipo.

Mejora en los servicios de copias de seguridad:

Muchos sistemas de ficheros dejan que sea el usuario quien proporcione las medidas necesarias para proteger los datos ante fallos en el sistema o en las aplicaciones. Los usuarios tienen que hacer copias de seguridad cada día, y si se produce algún fallo, utilizar estas copias para restaurarlos.
En este caso, todo el trabajo realizado sobre los datos desde que se hizo la última copia de seguridad se pierde y se tiene que volver a realizar. Sin embargo, los SGBD actuales funcionan de modo que se minimiza la cantidad de trabajo perdido cuando se produce un fallo.

Desventajas de las bases de datos

Complejidad:

Los SGBD son conjuntos de programas que pueden llegar a ser complejos con una gran funcionalidad. Es preciso comprender muy bien esta funcionalidad para poder realizar un buen uso de ellos.

Coste del equipamiento adicional:

Tanto el SGBD, como la propia base de datos, pueden hacer que sea necesario adquirir más espacio de almacenamiento. Además, para alcanzar las prestaciones deseadas, es posible que sea necesario adquirir una máquina más grande o una máquina que se dedique solamente al SGBD. Todo esto hará que la implantación de un sistema de bases de datos sea más cara.

Vulnerable a los fallos:

El hecho de que todo esté centralizado en el SGBD hace que el sistema sea más vulnerable ante los fallos que puedan producirse. Es por ello que deben tenerse copias de seguridad (Backup).

Tipos de Campos

Cada Sistema de Base de Datos posee tipos de campos que pueden ser similares o diferentes. Entre los más comunes podemos nombrar:
· Numérico: entre los diferentes tipos de campos numéricos podemos encontrar enteros “sin decimales” y reales “decimales”.
· Booleanos: poseen dos estados: Verdadero “Si” y Falso “No”.
· Memos: son campos alfanuméricos de longitud ilimitada. Presentan el inconveniente de no poder ser indexados.
· Fechas: almacenan fechas facilitando posteriormente su explotación. Almacenar fechas de esta forma posibilita ordenar los registros por fechas o calcular los días entre una fecha y otra.
· Alfanuméricos: contienen cifras y letras. Presentan una longitud limitada (255 caracteres).
· Autoincrementables: son campos numéricos enteros que incrementan en una unidad su valor para cada registro incorporado. Su utilidad resulta: Servir de identificador ya que resultan exclusivos de un registro.

Tipos de Base de Datos

Entre los diferentes tipos de base de datos, podemos encontrar los siguientes:
· MySql: es una base de datos con licencia GPL basada en un servidor. Se caracteriza por su rapidez. No es recomendable usar para grandes volúmenes de datos.
· PostgreSql y Oracle: Son sistemas de base de datos poderosos. Administra muy bien grandes cantidades de datos, y suelen ser utilizadas en intranets y sistemas de gran calibre.
· Access: Es una base de datos desarrollada por Microsoft. Esta base de datos, debe ser creada bajo el programa access, el cual crea un archivo .mdb con la estructura ya explicada.
· Microsoft SQL Server: es una base de datos más potente que access desarrollada por Microsoft. Se utiliza para manejar grandes volúmenes de informaciones.

Modelo entidad-relación

Los diagramas o modelos entidad-relación (denominado por su siglas, ERD“Diagram Entity relationship”) son una herramienta para el modelado de datos de un sistema de información. Estos modelos expresan entidades relevantes para un sistema de información, sus inter-relaciones y propiedades.Description: http://www.maestrosdelweb.com/images/bd_modelo.gif

Cardinalidad de las Relaciones

El diseño de relaciones entre las tablas de una base de datos puede ser la siguiente:
· Relaciones de uno a uno: una instancia de la entidad A se relaciona con una y solamente una de la entidad B.
· Relaciones de uno a muchos: cada instancia de la entidad A se relaciona con varias instancias de la entidad B.
· Relaciones de muchos a muchos: cualquier instancia de la entidad A se relaciona con cualquier instancia de la entidad B.

Estructura de una Base de Datos

Una base de datos, a fin de ordenar la información de manera lógica, posee un orden que debe ser cumplido para acceder a la información de manera coherente. Cada base de datos contiene una o más tablas, que cumplen la función de contener los campos.
En el siguiente ejemplo mostramos una tabla “comentarios” que contiene 4 campos.
Description: http://www.maestrosdelweb.com/images/bd_tabla.gif
Los datos quedarían organizados como mostramos en siguiente ejemplo:
Description: http://www.maestrosdelweb.com/images/bd_tabla21.jpg
Por consiguiente una base de datos posee el siguiente orden jerárquico:
· Tablas
· Campos
· Registros
· Lenguaje SQL
El lenguaje SQL es el más universal en los sistemas de base de datos. Este lenguaje nos permite realizar consultas a nuestras bases de datos para mostrar, insertar, actualizar y borrar datos.
A continuación veremos un ejemplo de ellos:
· Mostrar: para mostrar los registros se utiliza la instrucción Select.Select * From comentarios.
· Insertar: los registros pueden ser introducidos a partir de sentencias que emplean la instrucción Insert. Insert Into comentarios (titulo, texto, fecha) Values ('saludos', 'como esta', '22-10-2007')
· Borrar: Para borrar un registro se utiliza la instrucción Delete. En este caso debemos especificar cual o cuales son los registros que queremos borrar. Es por ello necesario establecer una selección que se llevara a cabo mediante la cláusula Where. Delete From comentarios Where id='1'.
· Actualizar: para actualizar los registros se utiliza la instrucción Update. Como para el caso de Delete, necesitamos especificar por medio de Where cuáles son los registros en los que queremos hacer efectivas nuestras modificaciones. Además, tendremos que especificar cuáles son los nuevos valores de los campos que deseamos actualizar. Update comentarios Set titulo='Mi Primer Comentario' Where id='1'.
Revistas Electronicas
Las revistas electrónicas son publicaciones periódicas que se generan a través de elementos electrónicos. Sus características principales son la rápida difusión, el ahorre de coste y la fiabilidad para su uso, ya que un documento electrónico puede ser manipulado constantemente. Muchas son distribuidas a través de servidores mediante password, como SciencDirect.
RECURSOS EN ACCESO ABIERTO (OPEN ACCESS)
El movimiento Open Access pretende un acceso libre a la literatura científica, sin barreras económicas, legales o tecnológicas. Según la declaraciones de Budapest Open Access Initiative de 2002, de Bethesda Statement on Open Access Publishing de 2003 y la Berlin Declaration on Open Acces to Knowledge in de Sciences and Humanities de 2003, se proporciona:
· Permiso a los usuarios para leer, descargar, copiar, distribuir, imprimir, buscar o enlazar con el texto completo de los artículos o para poder usarlos con cualquier propósito legal.
· Se garantiza al autor el derecho a controlar la integridad de su trabajo y ser adecuadamente conocido y citado.
· Los autores tienen que explicar exactamente qué derechos están dispuestos a ceder a priori a todos los usuarios potenciales. (Creative Commons).
· Las instituciones adheridas han de implementar una política requiriendo que los investigadores archiven sus trabajos en archivos Open Access, animando a publicar sus artículos en revistas Open Access.
Los beneficios perseguidos, en lo que atañe a nuestros usuarios, son un mayor acceso a los contenidos científicos.
Revistas
· DOAJ (Directory of Open Access Journals)
Directorio de revistas en Open Access. Recoge revistas científicas y académicas, que tengan ISSN. Las que van acompañadas de la etiqueta "DOAJ content" permiten que se busque entre sus artículos.
· E-revistas
Plataforma Open Access de Revistas Científicas Electrónicas Españolas y Latinoamericanas.
· Revistas científicas del CSIC
Edición electrónica de las revistas científicas del CSIC, en un modelo de acceso abierto tanto a los especialistas como a la sociedad española y a todos los interesados en la Ciencia y la Cultura.
Repositorios Institucionales
· Portal e-ciencia
Plataforma digital de acceso libre a la producción científica, generada por las Universidades públicas radicadas en Madrid – integradas en el Consorcio Madroño – así como por cualquier investigador de otra universidad o institución, que quiera participar.
· Archivo Digital de la UPM
Repositorio institucional de la Universidad Politécnica de Madrid para albergar en formato digital la documentación académica y científica generada en la institución y hacerla accesible a través de Internet.
· Open Course Ware
Sitio que pretende poner a disposición de toda la sociedad los conocimientos que la Universidad Politécnica de Madrid genera e imparte en sus aulas, para que puedan ser compartidos por otros interesados, como docentes, académicos o alumnos.
· RECOLECTA (Recolector de ciencia abierta)
El portal RECOLECTA (Recolector de ciencia abierta) es una iniciativa conjunta de la Red de Bibliotecas Universitarias (REBIUN) y la Fundación Española para la Ciencia y la Tecnología (FECyT) que tiene como objetivo principal promover la publicación en acceso abierto de los trabajos de investigación que se desarrollan en las distintas instituciones académicas españolas y facilitar su uso y visibilidad a la vez que proporciona herramientas para facilitar el desarrollo de repositorios.
· Repositorios Institucionales existentes en España
Buscador de contenidos de repositorios institucionales existentes en España.
· RECERCAT
Repositorio que incluye la literatura de investigación de las universidades y centros de investigación de Cataluña.
· OpenDOAR (Directory of Open Access Repositories)
Directorio de repositorios de acceso abierto de todo el mundo. Mantenido por la Universidad de Nottingham (Reino Unido).
· ROAR Registry of Open Access Repositories
Registro de repositorios de acceso abierto. Mantenido por la Universidad de Southampton.
· OAIster
Catálogo de recursos digitales que cumplen con el protocolo OAI-PMH.
Traduce
La traducción (del latín traductĭo, -ōnis: hacer pasar de un lugar a otro) es una actividad que consiste en comprender el significado de un texto en un idioma, llamado texto origen o "texto de salida", para producir un texto con significado equivalente, en otro idioma, llamado texto traducido o "texto meta". El resultado de esta actividad, el texto traducido, también se denomina traducción.
El texto bilingüe de la Piedra de Rosetta, descubierta en 1799, fue clave para comenzar a descifrar los jeroglíficos.
El objetivo de la traducción es crear una relación de equivalencia entre el texto origen y el texto traducido, es decir, la seguridad de que ambos textos comunican el mismo mensaje, a la vez que se tienen en cuenta aspectos como el género textual, el contexto, las reglas de la gramática de cada uno de los idiomas, las convenciones estilísticas, la fraseología, etc.
Tradicionalmente, la traducción ha sido una actividad desarrollada porhumanos, aunque hay numerosos intentos de automatizar la tarea de traducir textos naturales (traducción automática) o de utilizar computadoras para ayudar en esta tarea (traducción asistida por computadora, u ordenador). Un ejemplo de traducción asistida sería el uso de una memoria de traducción. De toda esta dinámica ha surgido la moderna industria del lenguaje.
Es importante diferenciar la traducción de la interpretación: En el primer caso, se transfieren ideas expresadas por escrito de una lengua a otra, mientras que en la interpretación las ideas se expresan oralmente o mediante la gesticulación (como sucede en el lenguaje de signos) de una lengua a otra. Según el análisis de los procesos implicados en la traducción e interpretación, podría considerarse que esta última constituye una subcategoría de la traducción.
motores de busqueda
Un motor de búsqueda es un sistema informático que busca archivosalmacenados en servidores web gracias a su «spider» (o Web crawler). Un ejemplo son los buscadores de Internet (algunos buscan sólo en la Webpero otros buscan además en noticias, servicios como GopherFTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas.
Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas. Hoy en día Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.

CLASIFICACIÓN

Se pueden clasificar en dos tipos:
· Índices temáticos: Son sistemas de búsqueda por temas o categorías jerarquizados (aunque también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos de direcciones Web elaboradas "manualmente", es decir, hay personas que se encargan de asignar cada página web a una categoría o tema determinado.
· Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante "robots" de búsqueda en la red.

CLASES DE BUSCADORES

Buscadores jerárquicos (Arañas o Spiders)

· Recorren las páginas recopilando información sobre los contenidos de las páginas. Cuando se busca una información en los motores, ellos consultan su base de datos y presentan resultados clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas que residan en el servidor.
· Si se busca una palabra, por ejemplo, “ordenadores”. En los resultados que ofrecerá el motor de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de su texto.
· Si consideran que un sitio web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, sólo almacenan una o más páginas.
· Cada cierto tiempo, los motores revisan los sitios, para actualizar los contenidos de su base de datos, por lo que no es infrecuente que los resultados de la búsqueda estén desactualizados.
· Los buscadores jerárquicos tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -arañas (spiders)-, los que construyen la base de datos y los que utiliza el usuario, el programa que explota la base de datos.
· Si se paga, se puede aparecer en las primeras páginas de resultados, aunque los principales buscadores delimitan estos resultados e indican al usuario que se trata de resultados esponsorizados o patrocinados. Hasta el momento, aparentemente, esta forma de publicidad es indicada explícitamente. Los buscadores jerárquicos se han visto obligados a comercializar este tipo de publicidad para poder seguir ofreciendo a los usuarios el servicio de forma gratuita.
· Ejemplos de arañas: GoogleBingHotbot.

Directorios

Una tecnología barata, ampliamente utilizada por gran cantidad de scriptsen el mercado. No se requieren muchos recursos de informática. En cambio, se requiere más soporte humano y mantenimiento.
· Los algoritmos son mucho más sencillos, presentando la información sobre los sitios registrados como una colección de directorios. No recorren los sitios web ni almacenan sus contenidos. Solo registran algunos de los datos de nuestra página, como el título y la descripción que se introduzcan al momento de registrar el sitio en el directorio.
· Los resultados de la búsqueda, estarán determinados por la información que se haya suministrado al directorio cuando se registra el sitio. En cambio, a diferencia de los motores, son revisadas por operadores humanos, y clasificadas según categorías, de forma que es más fácil encontrar páginas del tema de nuestro interés.
· Más que buscar información sobre contenidos de la página, los resultados serán presentados haciendo referencia a los contenidos y temática del sitio.
· Su tecnología es muy barata y sencilla.
Ejemplos de directorios: Antiguos directorios, Open Directory Project,Yahoo!Terra (antiguo Olé). Ahora, ambos utilizan tecnología de búsqueda jerárquica, y Yahoo! conserva su directorio. Buscar Portal, es un directorio, y la mayoría de motores hispanos son directorios[cita requerida].

Metabuscador

Permite lanzar varias búsquedas en motores seleccionados respetando el formato original de los buscadores. Lo que hacen, es realizar búsquedas en auténticos buscadores, analizan los resultados de la página, y presentan sus propios resultados, según un orden definido por el sistema estructural del metabuscador.

FFA - Enlaces gratuitos para todos

FFA (acrónimo del inglés "Free For All"), Cualquiera puede inscribir su página durante un tiempo limitado en estos pequeños directorios. Los enlaces no son permanentes.

Buscadores verticales

Buscadores especializados en un sector concreto, lo que les permite analizar la información con mayor profundidad, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.Es importante resaltar que utilizan índices especializados de esta manera acceder a la información de una manera más específica y fácil. (Nélida Colina). Ejemplos de este tipo de buscadores son: TrovitNestoria. no apto para trabajos escolares

HISTORIA DE LOS BUSCADORES

El primer buscador fue "Wandex", un índice (ahora desaparecido) realizado por la World Wide Web Wanderer, un robot desarrollado por Mattew Grayen el MIT, en 1993. Otro de los primeros buscadores, Aliweb, también apareció en 1993 y todavía está en funcionamiento. El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A diferencia de sus predecesores, éste permitía a sus usuarios una búsqueda por palabras en cualquier página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue también el primero en darse a conocer ampliamente entre el público. También apareció en 1994Lycos (que comenzó en la Carnegie Mellon University).

Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Northern Light y Altavista. De algún modo, competían con directorios (o índices temáticos) populares tales como Yahoo!. Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscadores para aumentar su funcionalidad.
Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos, como el buscador Archie, para sitios FTP anónimos y el motor de búsqueda Verónica, para el protocolo Gopher.
En la actualidad se aprecia una tendencia por parte de los principales buscadores de Internet a dar el salto hacia entornos móviles creando una nueva generación de buscadores: los buscadores móviles.
Uso de truncamientos y comodines.
Delimitadores.
Cómo funcionan los delimitadores
Los delimitadores permiten llevar esto a cabo. Con los delimitadores se puede fijar una expresión regular al principio o al final de una línea. También permiten crear expresiones regulares que ocurran dentro, al principio o al final de una palabra. La tabla siguiente contiene la lista de delimitadores de expresiones regulares y su significado:
No se puede utilizar un cuantificador con un delimitador. Como no puede haber más de una posición justo antes o justo después de una nueva línea o límite de palabra, no se permiten expresiones del tipo
Búsqueda de libros .
Los libros constituyen uno de los materiales básicos de trabajo mas habituales en el ámbito laboral y en el de la investigación. Podemos empezar a buscar un libro por medio de la siguientes ayudas:
Qué libros se han publicado sobre un tema
Cuántas ediciones se han hecho de una determinada obra
Qué libros tiene publicados un autor
Comprobar si una obra publicada en otro país esta traducida en el nuestro
Conocer la editorial de un libro, su año de publicación, ISBN, etc.
Saber qué libros ha publicado una editorial determinada.
Esta base de datos contiene referencias bibliográficas de los libros editados en España desde 1972, año en que nuestro país se unió al sistema ISBN. Está gestionada por la Agencia Española del ISBN. Los datos los proporciona el propio editor al tramitar y remitir a la Agencia el impreso de solicitud del ISBN.
Contiene las referencias de las publicaciones monográficas editadas en España que llevan ISBN, tanto disponibles como agotadas, editadas en distintas lenguas y diferentes soportes. Es una base de datos viva que diariamente incorpora nuevos registros.
Existen dos opciones de búsqueda: sencilla y avanzada. En la búsqueda sencilla podrá buscar por ISBN o introducir la palabra o palabras que conozca del autor, título, colección o materia. En la búsqueda avanzada podrá buscar por ISBN o bien definir uno o más criterios de búsqueda como autor, título, colección, materia y/o editorial. También es posible limitar la búsqueda por fecha, lugar de publicación, lengua, clase de registro y/o soporte.
Dispone de Ayuda por si tiene alguna duda a la hora de realizar una búsqueda.
ISBN
El International Standard Book Number (en español, ‘número estándar internacional de libro’), abreviado ISBN, es un identificadorúnicohttp://es.wikipedia.org/wiki/ISBN - cite_note-01 para libros, previsto para uso comercial. Fue creado en el Reino Unido en 1966 por las librerías y papelerías británicas W. H. Smith y llamado originalmente Standard Book Numbering (en español, ‘numeración estándar de libros’), abreviado SBN. Fue adoptado como estándar internacionalISO 2108 en 1970.
En publicaciones periódicas como revistas se usa el Número Internacional Normalizado de Publicaciones Seriadas (ISSNInternational Standard
Glosario
Axioma: cuando los principios científicos se elevan al rango de ley universal
Capacidad: es el sistema de cualidades de la personalidad para la gestión del aprendizaje en las organizaciones o comunidades.
Conocimiento: examinar.
Creativo:
Contexto: medio entorno, ambiente, situación del lugar.
Connotativo: que tiene varios significados.
Coyuntura: el momento preciso en el que se deben de realizar las acciones.
Denotativo: que solo tiene un significado.
Documento Electrónico: tiene que ser un documento que puede ser fijo o permanente, o también modificable.
Sistema: un conjunto de elementos que trabajan para un bien común.
1. Definir la profesion. ( SOFTWARE / MULTIMEDIA)
2. Software
programas de computadoras. Son las instrucciones responsables de que elhardware (la máquina) realice su tarea. Como concepto general, el softwarepuede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son los (software del sistema)
3. Fuentes de información
Fuentes de información internas: son todas aquellas que la empresa puede obtener y explorar por sus propios medios y recursos sin necesidad de acudir a terceros en encargo especial. Estas fuentes las dividimos a su vez en:
Primarias: son todas aquellas que genera la empresa en su seno y por su propia gestión
Secundarias: son aquellas de que puede disponer la empresa pero que no son originadas por ellas misma, sino que han sido elaboradas en un momento dado por alguien y están disponibles en la empresa. Ej. Antiguos estudios encargados a institutos de investigación.
Fuentes de información externas: son las que están situadas fuera de la empresa cuya información puede obtenerse a través de diferentes medios y se desglosan en:
Primarias: son las que están localizadas en la unidad básica de información, es decir, consumidores, distribuidores y en general, en el mercado del que se desea obtener información adecuada. Se trata de fuentes de las que se puede obtener con mayor o menor facilidad la información necesaria para tomar determinadas decisiones, pero que es necesario recoger específicamente en cada caso con las técnicas o procedimientos adecuados. Uno de los mayores inconvenientes es el coste, ya que es el mas elevado de todas por lo que solo debe acudirse a ellas cuando no se disponga de la información necesaria a través de otras. Existen determinadas investigaciones que no se encuentran en ninguna otra fuente, por lo que no hay otra opción. Las técnicas de recogida de la información son:
encuestas
personal
telefónica
Secundarias: están situadas en el exterior de la empresa y la información que puede proporcionar ha sido previamente elaborada con carácter general por determinadas personas o entidades. Estas fuentes se subdividen a su vez en:
Metodológicas: son aquellas que proporcionan información sobre los fundamentos teóricos de las diferentes técnicas y métodos que pueden utilizarse para llevar a cabo una determinada investigación, pero no proporcionan una información o datos específicos. Estas fuentes están compuestas por aquellos manuales, publicaciones, revistas, estudios, etc., elaborados por el área de investigación de mercados.
Estadísticas: son aquellas que proporcionan información de tipo cuantitativo sobre diferentes temas o aspectos como pueden ser el consumo, los precios, los salarios, la producción, etc. A la vez pueden clasificarse por:
Su origen:
Publicas
Privadas
La aplicación de las fuentes estadísticas requiere dos consideraciones:
 El grado de fiabilidad, es decir, la seguridad sobre la fiabilidad de los datos haciendo consultas oportunas a las personas y entidades que elaboran dichas estadísticas.
 El grado de desfase temporal, es decir, que hay que tener cautela a la hora de hacer cualquier estimación futura sobre bases de datos del pasado.
El acceso a las fuentes externas se realiza a través de tres medios:
Guías bibliografías: resúmenes de publicaciones.
Los centro de documentación
Los bancos de datos.
4. Base de datos.
Es un alamcen quenos permite guardar grandes cantidades de informacion de una manera organizada para que sepueda accesar despues.
5. Sistematico o sistemacidad.
Que sigue o se ajusta a un sistema.
Díc. de la persona que procede por principios.
ling. Díc. a veces de la fase de clasificación de los elementos de cada nivel de la lengua previamente analizados, en la fase llamada sintagmática.
f. biol. Ciencia de la clasificación de los seres vivos.p. ext.Conjunto de hechos, datos o métodos erigidos en sistema o que proceden de un sistema.
6. Calidad
CUALIDAD QUE TIENE UN PRODUCTOQUE LE PERMITE CUMPLIR LAS EXPECTATIVAS DEL USUARIO.
7. Recuperación de la informacion.
La habilidad algun archivo que se haya perdido y que se pueda volver a accesar.
8. Tesauro.
derivado del neolatín que significa tesoro, se refiere al listado de palabras o términos empleados para representar conceptos. El término proviene del latín thesaurus, el cual tiene su origen del griego clásico θησαυρός (thesauros), almacéntesorería. Como neologismo del latín es acuñado a principios de la década de 1820.
9. Tipologia.
literalmente el estudio de los tipos, se encarga, en diversos campos de estudio, de realizar una clasificación de diferentes elementos:
 La tipología lítica y la tipología arqueológica, en general, son las disciplinas que se emplean en arqueología para clasificar artefactos exhumados de las excavaciones arqueológicas.
 La tipología antropológica es la división de las culturas con base en sus rasgos distintivos. Es una disciplina en desuso, pues el paradigma científico ha quedado obsoleto frente a tendencias más modernas enantropología y arqueología.
 La tipología lingüística es la clasificación de las lenguas teniendo en cuenta sus rasgos gramaticales; está muy relacionada con latipología morfológica, empleada para clasificar las lenguas por los hermanos Friedrich y August von Schlegel.
 En psicología es la propuesta de clasificación realizada por el psicólogoCarl Gustav Jung basada en los arquetipos (imágenes ancestrales del "inconsciente colectivo"de toda humanidad). En esta misma ciencia se usan diversos controles o test de personalidad, para clasificar las características emocionales, de pensamiento y de conducta propias de las personas, destacando el cuestionario 16PF de Raymond Cattell, o el Myers-Briggs Type Indicator, por poner unos ejemplos.
 En sociología se han desarrollados los términos tipo normal, de Ferdinand Tönnies, y el tipo ideal, de Max Weber.
 En teología, la tipología teológica se refiere a la interpretación de algunos personajes e historias del Antiguo Testamento, así como los presagios del Nuevo Testamento.
En museología, la tipología de museos es la clasificación de los museos realizada generalmente en base a sus colecciones.
10. Metabuscador
es un sistema que localiza informacion en los motores de búsqueda mas usados y carece de base de datos propia y, en su lugar, usa las de otros buscadores y muestra una combinación de las mejores páginas que ha devuelto cada uno. Un buscador normal recopila la información de las páginas mediante su indexación
11. pagina web
Una página web es un documento electrónico adaptado para la World Wide Web que generalmente forma parte de un sitio web. Su principal característica son los hipervínculos de una página, siendo esto el fundamento de la WWW.Una página web está compuesta principalmente por información (sólo texto o módulos multimedia) así como por hiperenlaces; además puede contener o asociar datos de estilopara especificar cómo debe visualizarse, y también aplicacionesembebidas para hacerla interactiva.
12. El catalogo bibliografico isbn
El International Standard Book Number (en español, ‘número estándar internacional de libro’), abreviado ISBN, es un identificador único1 para libros, previsto para uso comercial. Fue creado en el Reino Unido en 1966por las librerías y papelerías británicas W. H. Smith y llamado originalmenteStandard Book Numbering (en español, ‘numeración estándar de libros’), abreviado SBN. Fue adoptado como estándar internacional ISO 2108 en1970.
13. Metologia.
PASOS A SEGUIR O PROCESOS QUE SE DEBE DE SEGUIR PARA PODER SOLUCIONAR UN PROBLEMA, PARA OBTENER UN CONOCIMIENTO.
14. Búsqueda documental
15. Búsqueda bibliografica
16. INTERNET GLOBAL
Es UN CONJUNTO DE PROTOCOLOS QUE PERMITE DE FORMA SENCILLA LA CONSULTA REMOTA DE ARCHIVOS DE HYPERVINCULOS EN EL MUNDO ENTERO. .
17. INTERNET
Es UN CONJUNTO DE PROTOCOLOS QUE PERMITE DE FORMA SENCILLA LA CONSULTA REMOTA DE ARCHIVOS DE HYPERVINCULOS.
18. INTRANET
Una Intranet es una red de ordenadores privada basada en los estándares de Internet.
Las Intranets utilizan tecnologías de Internet para enlazar los recursos informativos de una organización, desde documentos de texto a documentos multimedia, desde bases de datos legales a sistemas de gestión de documentos. Las Intranets pueden incluir sistemas de seguridad para la red, tablones de anuncios y motores de búsqueda.
19. INTERNET VISIBLE
Aquella parte de la red cuyo contenido puede ser indizado, y por tanto recuperado, por los motores de búsqueda, mientras que la parte invisible correspondería a toda esa información presente en Internet pero que no puede ser indizada ni recuperada por los motores de búsqueda tradicionales
20. INTERNET OBSCURO
Información recogida en las bases de datos, entre otros recursos informativos, por lo que, para poder recuperarlo es preciso interrogarlos previamente, algo que los buscadores tradicionales no pueden realizar.
21. PAGINA CACHE
En informática, un caché es un componente que almacena datos para que los futuros requerimientos a esos datos puedan ser servidos más rápidamente. Generalmente son datos temporales.
La idea de duplicación de datos se basa en que los datos originales son más costosos de acceder en tiempo con respecto a la copia en memoria caché.
Los datos almacenados en un caché pueden ser valores que se han computado recientemente o duplicados de valores almacenados en otro lugar.
22. HOST
Un host o anfitrión es un ordenador que funciona como el punto de inicio y final de las transferencias de datos. Más comunmente descrito como el lugar donde reside un sitio web. Un host de Internet tiene unadirección de Internet única (direción IP) y un nombre de dominio único o nombre de host.
23. DOCUMENTO PDF – CARACTERISTICAS
(formato de documento portable) es el formato de archivos desarrollado por Adobe Systems y creado con los programas Adobe Acrobat Reader, Acrobat Capture, Adobe Distiller, Adobe Exchange, y el plugin Amber de Adobe Acrobat.
Esta tecnología ha tenido éxito estandardizando el formato de los documentos que se utilizan y transfieren en Internet. El PDF es como un formato de archivos universal.
Ventajas del PDF
Una de las ventajas de usar Acrobat y PDFs es que no importa si eres un estudiante, un profesor que utiliza Microsoft Office, un ingeniero que utiliza CAD o un director de arte que utiliza programas de diseño, seas quien seas, con Acrobat puedes enviar rápidamente documentos en PDF sin tener que volver a crearlos en otros formatos.
24. WEB GUIDE
Este archivo nos permite tener una base de datos en la cual nos permite poder accesar una serie de paginas de internet.
25. USABILIDAD (CRITERIO DE LA BUSQUEDA DE LA INFORMACION.)
26. PERTINENCIA
27. EXHAUSTIBILIDAD.
28. PUBLISHER
29. CODIGO EAN
30. OPERADOR BOOLEANO.
Este tipo de operadores se refiere alo que son
31. ISI – INSTITUTO DE INVESTIGACION CIENTIFICA
32. ISO
INTERNATIONAL STANDARD ORGANIZATION – CEDE LOCALIZADA EN SUIZA – INSTITUCION DESIGNADA DE ESTABLECER LOS CRITERIOS – PURO PROCESO.
33. JCR JOURNAL CITATION.
34. WEB MASTER
35. MASTER DE EDICION
36. DOCUMENTO ELECTRONICO.
UN SERIE DE DATOS INFORMATIVOS, DIGITALIZADOS QUE SE ENCUENTRAN EN UN DISPOSITOS ELECTRONICOS, QUE CUENTAN CON UN SOPORTE ELECTRONICO.
Conclusion:
- En este trabajo hemos llegado a la conclusión de que muchos de los conceptos que usamos a diario los podemos mejorar agradando procesos o ideas para ampliar en nivel de búsqueda o de razonamiento de tales conceptos para después llevar acabo una búsqueda utilizando esos conceptos para llevarlos en una secuencia ordenada describir las cosas mas didácticas y fáciles.
Fuentes de consulta e información.