martes, 4 de octubre de 2016

ENSAMBLAJES Y REPARACIÓN DE COMPUTADORAS

Chasis de la computadora:


El chasis de la computadora incluye la estructura que sostiene los componentes internos de la computadora y, al mismo tiempo, los protege. Por lo general, los chasis están hechos de plástico, acero y aluminio, y se puede encontrar una gran variedad de diseños.
Factor de Forma:

Se denomina factor de forma al tamaño y el diseño de un chasis. Existen muchos tipos de chasis pero los factores de forma básicos de los chasis de computadora se dividen en los de escritorio y los de torre. Los chasis de escritorio pueden ser delgados o de tamaño completo, y los chasis de torre pueden ser pequeños o de tamaño completo.












Fuente de Energía o Fuente Poder:

La fuente de energía, convierte la corriente alterna (CA) proveniente de la toma de corriente de pared en corriente continua (CC), que es de un voltaje menor. Todos los componentes de la computadora requieren CC.



Fuente de Energía o Fuente Poder:

Conectores:

La mayoría de los conectores de hoy son conectores de llave. Los conectores de llave están diseñados para inserción una sola dirección. Cada parte del conector tiene un cable de color que conduce un voltaje diferente.





Electricidad y Ley de Ohm

Energía Es una medida de la presión requerida para impulsar electrones a través de un circuito, denominado voltaje, multiplicada por la cantidad de electrones que pasan por dicho circuito (dicha cantidad se denomina corriente). La medida se llama vatio (W). Las fuentes de energía de las computadoras se miden en vatios.

Resistencia Es la oposición al flujo de corriente de un circuito. Se mide en ohmios. Una resistencia más baja permite que fluya más corriente (y, por lo tanto, más energía) a través de un circuito. Un buen fusible tiene poca resistencia o una medición de casi 0 ohmios.

Fuente de Energía o Fuente Poder:

Se usan diferentes conectores para conectar componentes específicos y varias ubicaciones en la motherboard: 

Para Conectar la motherboard, se usa un conector ranurado de 20 ó 24 pines. El conector ranurado de 24 pines tiene dos filas de 12 pines y el conector ranurado de 20 pines tiene dos filas de 10 pines. 

Un conector de alimentación auxiliar de 4 pines a 8 pines tiene dos filas de dos a cuatro pines y suministra energía a todas las áreas de la motherboard. El conector de alimentación auxiliar de 4 pines a 8 pines tiene la misma forma que el conector de alimentación principal, pero es más pequeño.
Conectores de la Fuente Poder:



Fuente de Energía o Fuente Poder

Las computadoras normalmente usan fuentes de energía de 200 W a 500 W. Sin embargo, algunas computadoras necesitan fuentes de energía de 500 W a 800 W. Al construir una computadora, seleccione una fuente de energía con suficiente voltaje para alimentar todos los componentes. Puede obtener la información sobre voltaje de los componentes en la documentación del fabricante. Cuando elija una fuente de energía, asegúrese de que la energía supere la requerida por los componentes instalados



BASE DE DATOS




“Base de Datos es un conjunto de datos relacionados entre sí y que tienen un significado implícito”.


DEFINICIÓN DE BASE DE DATOS:

“Una base de datos tiene una fuente de la cual se derivan los datos, cierto grado de interacción con los acontecimientos del mundo real y un público que está activamente interesado en el contenido de la base de datos”.
“Datos son hechos conocidos que pueden registrarse y que tienen un significado implícito”. 
Ejemplo: Pueden constituir datos los nombres, números telefónicos y direcciones de personas que conocemos.


Entidades:

Una entidad es todo aquello de lo cual interesa guardar datos, por ejemplo: clientes, facturas, productos, empleados. En el Modelo de Entidad-Relación que se presenta, se observa que las entidades están formadas por atributos o campos referidos a un mismo tema que interesa almacenar. 
Restricciones de integridad referencial:

-Código de Clientes en Facturas debe cumplir que exista en Clientes y que sea clave primaria
-Código de Producto Facturas debe cumplir que exista en Productos y que sea clave primaria.

Principales características del enfoque de Bases de Datos:

1. Naturaleza autodescriptiva de los sistemas de base de datos:

Tal como se visualizó en la parte inferior del esquema del Entorno simplificado de un Sistema Gestor de Base de Datos ésta no solamente contiene la base de datos misma, sino que también incluye una definición o descripción completa de dicha base de datos.

2. Separación entre los programas y los datos, y abstracción de los datos:


Es posible modificar las definiciones de datos y no modificar el código de la aplicación y viceversa.

Dos características confluyen para lograrlo:

-Se almacena en el catálogo del SGBD la estructura de los archivos de datos separados de las aplicaciones (programas). 

-El código de las aplicaciones se escribe de modo que sean independientes de los archivos específicos. 


3. Manejo de múltiples vistas de los datos

Cada usuario visualiza lo que le interesa en la base de datos, pudiendo acceder a subconjuntos de datos. 
En el ejemplo de base de datos visto anteriormente, al departamento de Compras posiblemente le interese visualizar la tabla Productos y en ocasiones las de Facturas (para chequear bajas en el stock), pero no la que contiene los datos de los Clientes. 


TIPOS DE SOCKET



¿QUE ES UN SOCKET?

Es un zócalo con una serie de pequeños agujeros siguiendo una matriz determinada, donde encajan los pines de los procesadores para permitir la conexión entre estos elementos. 
Dicha matriz recibe el nombre de PGA, y es la que suele determinar la denominación del socket.

TIPO 1 : 

Socket 169 pines. Es el primer socket estandarizado para 80486. Era compatible con varios procesadores x86 de diferentes marcas.


     TIPO 2: 

Socket de 238 pines. Es una evolución del socket 1, con soporte para los procesadores x86 de la serie 486SX, 486DX(en sus varias versiones) y 486DX Overdrive (antecesores de la Pentium).



TIPO 3 :

 Socket 237 pines. Es el ultimo socket diseñado para los 486. Tiene la particularidad de trabajar tanto a 5v como a 3.3v(se controlaba mediante un pin en la placa base). Soportaba los procesadores 486DX, 486SX, 486DX2, 486DX4, AMD, 5X86, Cyrix 5X86, Pentium Overdrive 63 y Pentium Overdrive 83




TIPO 4: 

Socket 273 pines, trabajando a 5v(60 y 66Mhz). Es el primer socket para procesadores Pentium. No tubo mucha aceptación, ya que al poco tiempo Intel saco al mercado lo Pentium a 75 MHz y 3.3v, con 320 pines. Soportaba los Pentium de primera generación(de entre 60 y 66 Mhz).



TIPO 5:

Socket de 320 pines. Fueron lo primeros sockets en utilizar los Pentium I con bus de memoria de 64bits(por supuesto los procesadores eran de 32bits). En este socket aparecen por primera vez las pestañas en el socket para la instalación de un disipador.



























lunes, 3 de octubre de 2016

MEMORIA ROM

ROM:

Proviene de las siglas de Read Only Memory, en castellano Memoria de Sólo Lectura.
Es la memoria que se utiliza para almacenar los programas que ponen en marcha el ordenador y realizan los diagnósticos. La mayoría de los ordenadores tienen una cantidad pequeña de memoria ROM (algunos miles de bytes).

Con frecuencia, las memorias ROM o de sólo lectura se usaron como principal medio de almacenamiento de datos en los ordenadores. Por ser una memoria que protege los datos contenidos en ella, evitando la sobre escritura de éstos, las ROM se emplearon para almacenar información de configuración del sistema, programas de arranque o inicio, soporte físico y otros programas que no precisan de actualización constante.

TIPOS DE MEMORIA ROM

TIPO 1.- PROM:
Cuando se compra está en blanco (vacía) y mediante un proceso el usuario graba la información en ella, pero sólo una vez. 
                                    
TIPO 2.- EPROM:
Al igual a la anterior pero que mediante la exposición de una ventana, en la parte superior del integrado, a la luz ultravioleta, por un periodo definido de tiempo, se puede borrar.

                                                   

TIPO 3.- EEPROM:
     •Esta tambien es Igual  pero el borrado se realiza eléctricamente.
  •Es un tipo de chip de memoria ROM no volátil inventado por el ingenieroDov                                Frohman de Intel. Está formada por celdas de FAMOS (Floating Gate Avalanche-Injection Metal-Oxide Semiconductor) o "transistores de puerta flotante", cada uno de los cuales viene de fábrica sin carga, por lo que son leídos como 1 (por eso, una EPROM sin grabar se lee como FF en todas sus celdas).       





TIPO 4: Memoria Flash:

Tipo especial de EEPROM que puede ser borrada y reprogramada dentro de una computadora. Los EEPROM necesitan un dispositivo especial llamado lector de PROM.










DIRECCIÓN IP

¿Qué es el numero IP?

Un numero IP o también llamado dirección IP significa “Internet Protocol” y es un número que identifica un dispositivo en una red (un ordenador, una impresora, un router, etc…). Estos dispositivos al formar parte de una red serán identificados mediante un número IP único en esa red.
En una forma mas entendible, una dirección IP es como un DNI para máquinas, es un número único que utilizan los dispositivos para identificarse y comunicarse entre ellos en una red que utiliza el estándar del Internet Protocol.


¿Para que sirve la dirección IP?
Una dirección IP sirve para identificar de manera lógica y jerárquica a una interfaz de un dispositivo dentro de una red que utilice el protocolo IP (Internet Protocol).

Quiere decir que la dirección IP identifica a una computadora en una determinada red. A través de la dirección IP sabemos en que red está la computadora y cual es la computadora. Es decir verificado a través de un número único para aquella computadora en aquella red específica.



¿Cómo se utiliza una dirección IP?


Una dirección IP funciona de forma similar a la dirección de una casa. Así como la dirección postal es una combinación única de números y palabras que les permiten a las cartas y a los visitantes encontrar un lugar, la dirección IP es una combinación única de números que deja que tu computadora envíe y reciba información desde otras computadoras.

Diferencia entre IPV4 y IPV6:

  • En IPv4, una dirección IP se representa mediante un número binario de 32 bits, lo que permite proporcionar un máximo de 232 direcciones únicas. Estas direcciones se representan dividiendo los 32 bits en cuatro octetos, cada octeto se expresa mediante notación decimal cuyo valor puede estar comprendido entre 0 y 255. Para separar cada octeto se emplea el símbolo ".".
  • Sin embargo, IPv6 admite 2128 direcciones únicas. Una dirección IP, en esta versión, está compuesta por ocho segmentos de 2 bytes cada uno, que suman un total de 128 bytes. La representación para cada segmento es un número hexadecimal. Para la separación de cada uno de los segmentos se usa el símbolo ":".´
















BIG DATA




Big Data es uno de los conceptos de moda en el mundo informático. En la actualidad contamos con una gran cantidad de artículos, e información, y en todas las encuestas a los CIOS aparece entre los primeros lugares la necesidad de implantar un sistema de Big Data.
Sin embargo, observamos una gran confusión sobre "en qué consiste realmente". En las mismas encuestas, cuando se pregunta sobre, qué es Big Data, comprobamos una gran dispersión en las respuestas ofrecidas. Empecemos entonces por tratar de aclarar "qué es Big Data".

Big Data se define como el conjunto de herramientas informáticas destinadas a la manipulación, gestión y análisis de grandes volúmenes de datos de todo tipo los cuales no pueden ser gestionados por las herramientas informáticas tradicionales. Big data es un término de origen inglés cuya traducción equivale a "Datos masivos", la tecnología big data tiene por objetivo analizar datos e información de manera inteligente que ayuden a una correcta toma de decisión.


OBJETIVO:

El objetivo fundamental del big data es dotar de una infraestructura tecnológica a las empresas y organizaciones con la finalidad de poder almacenar, tratar y analizar de manera económica, rápida y flexible la gran cantidad de datos que se generan diariamente, para ello es necesario el desarrollo y la implantación tanto de hardware como de software específicos que gestionen esta explosión de datos con el objetivo de extraer valor para obtener información útil para nuestros objetivos o negocios.
Mejor dicho, el objetivo de Big Data, al igual que los sistemas analíticos convencionales, es convertir el Dato en información que facilita la toma de decisiones, incluso en tiempo real. Sin embargo, más que una cuestión de tamaño, es una oportunidad de negocio. Las empresas ya están utilizando Big Data para entender el perfil, las necesidades y el sentir de sus clientes respecto a los productos y/o servicios vendidos. Esto adquiere especial relevancia ya que permite adecuar la forma en la que interactúa la empresa con sus clientes y en cómo les prestan servicio.

  UTILIDAD:

¿Para qué sirve?

El concepto de “Big data” es indisoluble al “nuevo mundo hiperconectado” de personas-dispositivos que utilizan, generan y publican datos/contenidos a través de infinidad de aplicaciones y medios sociales. Unos datos que podemos caracterizar con la triple "V":

1) mucho más Volumen
2) mucha más Variedad según su origen y su naturaleza (estructurados y no estructurados)
3) mucha más Velocidad en su actualización.
Este conjunto de tecnologías se puede usar en una gran variedad de ámbitos, como los siguientes.

Empresarial:

- Redes Sociales: Cada vez más tendemos a subir a las redes sociales toda nuestra actividad y la de nuestros conocidos. Las empresas utilizan esta información para cruzar los datos de los candidatos a un trabajo. Oracle ha desarrollado una herramienta llamada Taleo Social Sourcing, la cual está integrada con las APIs de Facebook, Twitter y LinkedIn. Gracias a su uso, los departamentos de recursos humanos pueden ver, entrando la identidad del candidato, su perfil social y profesional en cuestión de segundos. Por otro lado, les permite crear una lista de posibles candidatos según el perfil profesional necesario, y así pasar a ofrecer el puesto de trabajo a un público mucho más objetivo. Por otro lado, Gate Gourmet .

- Consumo: Amazon es líder en ventas cruzadas. El éxito se basa en la minería de datos masiva basando los patrones de compra de un usuario cruzados con los datos de compra de otro, creando así anuncios personalizados y boletines electrónicos que incluyen justo aquello que el usuario quiere en ese instante.Offline también nos encontramos con casos de aplicación Big Data. Nuestros teléfonos móviles envían peticiones de escucha WiFi a todos los puntos de acceso con los que nos cruzamos. Algunas compañías han decidido hacer un trazo de estas peticiones con su localización y dirección MAC para saber qué dispositivo hace cuál ruta dentro de un recinto. No hay que asustarse ya que con la dirección MAC no pueden invadir nuestra intimidad. 

- Big Data e intimidad: 

La cantidad de datos creados anualmente es de 2,8 Zettabytes en 2012, de los cuales el 75% son generados por los individuos según su uso de la red ya sea bajarse un archivo, conectar el GPS o enviar un correo electrónico. Se calcula que un oficinista medio genera 1,8 Terabytes al año por lo que son unos 5 GB al día de información.Aquí entran en juego las empresas llamadas corredores de datos. Acxiom es una de ellas, y posee unas 1.500 trazas de datos de más de 500 millones de usuarios de internet. Todos estos datos son transformados y cruzados para incluir al usuario analizado en uno de los 70 segmentos de usuarios, llamado PersonicX.Descrito como un “resumen de indicadores de estilo de vida, intereses y actividades”, esta correduría de datos basa su clustering en los acontecimientos vitales y es capaz de predecir más de 3.000 reacciones ante estímulos de estos clientes. 
Deportes:

- Profesional: 

En un ámbito donde se mueve tanto dinero, suelen utilizar las nuevas tecnologías antes que los usuarios de base. Nos encontramos por ejemplo que el análisis de los partidos constituye una parte fundamental en el entrenamiento de los profesionales, y la toma de decisiones de los entrenadores. Amisco es un sistema aplicado por los más importantes equipos de las ligas española, Francesa, Alemana e Inglesa des del 2001. Consta de 8 cámaras y diversos ordenadores instalados en los estadios, que registran los movimientos de los jugadores a razón de 25 registros por segundo, y luego envían los datos a una central donde hacen un análisis masivo de los datos. La información que se devuelve como resultado incluye una reproducción del partido en dos dimensiones, los datos técnicos y estadísticas, y un resumen de los datos físicos de cada jugador, permitiendo seleccionar varias dimensiones y visualizaciones diferentes de datos.

- Aficionado:

 Aplicaciones como Runtastic, Garmin o Nike+ proveen de resultados Big Data al usuario. Este último –Nike+- va BIG DATA un paso más alláBIG DATA  a nivel de organización, ya que fabrican un producto básico para sus usuarios: las zapatillas. Los 7 millones de usuarios generan una gran cantidad de datos para medir el rendimiento y su mejora, por lo que la empresa genera unos clústeres con los patrones de comportamiento de sus usuarios. Uno de sus objetivos pues, es controlar el tiempo de vida de sus zapatillas encontrando fórmulas para mejorar la calidad. Por último, aumenta la competitividad entre sus usuarios con el uso de la gamificación: establece que comunidades de usuarios lleguen a metas y consigan objetivos conjuntamente con el uso de la aplicación, motivando e inspirando a los corredores para usar su aplicación y a más largo plazo, sus productos deportivos.
Investigación:

- Salud y medicina: 

Hacia mediados 2009, el mundo experimentó una pandemia de gripe A, llamada gripe porcina o H1N1. El website Google Flu Trends fue capaz de predecirla gracias a los resultados de las búsquedas. Flu Trends usa los datos de las búsquedas de los usuarios que contienen Influenza-Like Illness Symptoms (Síntomas parecidos a la enfermedad de la gripe) y los agrega según ubicación y fecha, y es capaz de predecir la actividad de la gripe hasta con dos semanas de antelación más que los sistemas tradicionales. Más concretamente en Nueva Zelanda cruzaron los datos de Google Flu Trends con datos existentes de los sistemas de salud nacionales, y comprobaron que estaban alineados. Los gráficos mostraron una correlación con las búsquedas de ILI Symptoms y la extensión de la pandemia en el país. Los países con sistemas de predicción poco desarrollados pueden beneficiarse de una predicción fiable y pública para abastecer a su población de las medidas de seguridad oportunas.


Conclusión:

Big Data genera amplias oportunidades para desarrollar nuevos modelos de negocio y mejorar el desempeño de la firma, pero también requiere el rediseño y la actualización de varios aspectos del diseño de la organización. Como mínimo, la creación de una capacidad analítica requiere que las organizaciones desarrollen habilidades para crear nuevos modelos analíticos basados en big data, así como habilidades para el uso de estos modelos en la ejecución de sus transacciones del “día a día”. Obviamente, esto requiere no solo una infraestructura de TI avanzada, sino también una cultura organizacional y de gobierno que apoyen diferentes iniciativas. Sin embargo, para empezar a explotar los beneficios de big data no es estrictamente necesario realizar cambios tan profundos de forma inmediata. Las organizaciones pueden desarrollar su capacidad analítica de forma incremental involucrando personal clave en los procesos que apoyan su efectividad e inteligencia analíticas. Estos esfuerzos pueden generar resultados de mercado rápidamente, iniciando la transición de la firma hacia la meta de implementar con éxito una estrategia basada en big data.



RANURAS PCI Y PCI-EXPRES

(PCI) es estándar de computadora para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Una ranura de expansión (bus de expansión o "Slot") es un elemento que permite introducir dentro de si otros dispositivos llamados tarjetas de expansión.

PCI (componentes periféricos interconectados). Este tipo de ranura fue desarrollado por Intel® y lanzado al mercado en 1993, se comercializa con una capacidad de datos de 32 bits y 64 bits para el microprocesador Intel® Pentium.

Los bits en las ranuras de expansión significan la capacidad de datos que es capaz de proveer, este dato es importante ya que por medio de una fórmula, es posible determinar la transferencia máxima de la ranura ó de una tarjeta de expansión. Esto se describe en la sección: Bus y bus de datos PCI de esta misma página.




Variantes convencionales de PCI:
Las principales versiones de este bus (y por lo tanto de sus respectivas ranuras) son:
1. PCI 1.0: primera versión del bus PCI. Se trata de un bus de 32 bits a 16 MHz.
2. PCI 2.0: primera versión estandarizada y comercial. Bus de 32 bits a 33 MHz
3. PCI 2.1: bus de 32 bits, a 66 MHz y señal de 3,3 voltios
4. PCI 2.2: bus de 32 bits, a 66 MHz, requiriendo 3,3 voltios. Transferencia de hasta 533 MB/s.
5. PCI 2.3: bus de 32 bits, a 66 MHz. Permite el uso de 3,3 voltios y señalizador universal, pero no soporta señal de 5 voltios en las tarjetas.
6. PCI 3.0: es el estándar definitivo, ya sin soporte para 5 voltios.

Características:

La velocidad de la ranura PCI va desde 133 megabytes/segundo para el PCI 2.0 hasta 128 gigabytes/segundo para el PCI Express. Conventional PCI además posee capacidades "Plug and Play" (Conectar y usar). Las ranuras PCI también usan ECC (Códigos de corrección de errores), una tecnología que también es usada en módulos de memoria RAM para mejorar la integridad de los datos. 

Ventajas:

Las ranuras PCI tienen la ventaja de que te permiten actualizar o expandir la funcionalidad de tu computadora de forma rápida y sencilla, sin requerir reemplazos de hardware costosos. La incorporación de tarjetas de sonido o de video es posible simplemente conectándolas en una ranura PCI en lugar de actualizar completamente la placa madre. 

Usos:

Las ranuras PCI te permiten agregar tarjetas de expansión para distintos propósitos. Por ejemplo, incluso aunque la placa madre de tu computadora venga con un chip de audio integrado, es posible que desees instalar una nueva tarjeta de sonido para tener un mejor rendimiento, lo cual puede ser posible a través de la ranura de expansión PCI. Las ranuras PCI pueden compararse con las ranuras USB, ya que cumplen un rol muy similar, con la diferencia que los puertos USB son conectores externos, mientras que las ranuras PCI son conectores internos.

PCI-EXPRESS:

PCI-E (componentes periféricos interconectados en modo inmediato). Este tipo de ranura fue desarrollado por Intel® y lanzado al mercado en 2004, con una forma de transmisión de tipo serial (mientras el PCI lo hace de forma paralela). –Extraí

Características del Bus PCI Express

PCI Express se presenta en diversas versiones (1X, 2X, 4X, 8X, 12X, 16X y 32X), con rendimientos de entre 250 Mb/s y 8 Gb/s, es decir, 4 veces el rendimiento máximo de los puertos AGP 8X. Dado que el costo de fabricación es similar al del puerto AGP, es de esperar que el bus PCI Express lo reemplace en forma progresiva.
Conectores PCI Express:
Los conectores PCI Express no son compatibles con los conectores PCI más antiguos. Varían en tamaño y demandan menos energía eléctrica. Una de las características más interesantes del bus PCI Express es que admite la conexión en caliente, es decir, que puede conectarse y desconectarse sin que sea necesario apagar o reiniciar la máquina. Los conectores PCI Express son identificables gracias a su tamaño pequeño y su color gris oscuro.







MEMORIA RAM

 La memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés ylíneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:

Fast Page Mode RAM (FPM-RAM):
 fue inspirado en técnicas como el Burst Mode usado en procesadores como el Intel 486.3 Se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no sería necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.
Extended Data Output RAM (EDO-RAM) :
fue lanzada al mercado en 1994 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre FPM, su antecesora. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el búferde salida hasta que comienza el próximo ciclo de lectura.
Burst Extended Data Output RAM (BEDO-RAM): 
fue la evolución de la EDO-RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a más de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50 % mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.
La tecnología de memoria actual:
es una señal de sincronización para realizar las funciones de lectura/escritura de manera que siempre está sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas.
Toda la industria se decantó por las tecnologías síncronas, porque permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.

COMPUTACION EN LA NUBE


El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS, Microsoft y otros que construyeron su propia infraestructura. 

Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla).

Beneficios:

Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología estarán disponibles en cuestión de días o horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.
La tecnología de "Cloud Computing" no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
la tecnología de "Cloud Computing" se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.


Ventajas:
  •  Disminuye la necesidad de comprar de más hardware = CAPEX 
  • Los software instalados se reemplazan en la nube por servicios prestados bajo demanda, por lo que no requiere de actualizaciones, ni de licencias, ni soporte técnico permanente, ni copias de seguridad, ni antivirus locales. 
  •  Acceso a aplicaciones y datos desde cualquier sitio, sin importar la plataforma o sistema operativo o el navegador con la que accede, esto incluye a los Dispositivos móviles sin importar el proveedor. 
  •  Desaparece el concepto de ordenador personal, ya que cualquier ordenador es tu ordenador personal, donde la tecnología de la información se convierte en un servicio que consumimos. Permite el BYOD
Desventajas:

  •  No todos los proveedores ofrecen garantía de confidencialidad, integridad y disponibilidad de los datos.
  • Solo funciona conectado a internet.
  •  Los servicios ofrecidos están limitados de acuerdo a las capacidades del proveedor. 
  •  Se crea una gran dependencia con el proveedor. 
Implementando Estrategias para la Creación de una Nube:

Las estrategias que se deben adoptar para encaminar una empresa hacia la nube son:

  •  Entender los requisitos de confianza de un ambiente computacional y los perfiles de confianza de las opciones de nube potenciales.
  •  Identificar las cargas de trabajo candidatas para implementar en nube, con especial atención a la naturaleza y el flujo de la información.
  • Evaluar los beneficios económicos de transferir cada carga de trabajo a la nube y qué opción de nube se prefiere.
  •  Evaluar la factibilidad funcional y los beneficios de transferir cada carga de trabajo a la nube y qué opción de nube se prefiere.

La evolución de la Web


La World Wide Web fue inventada en 1989 por un informático del CERN (Organización Europea de Investigación Nuclear) llamado Tim Berners - Lee. Era un sistema de hipertexto para compartir información basado en Internet, concebido originalmente para servir como herramienta de comunicación entre los científicos del CERN, entregó su propuesta y, en septiembre de 1990 recibió el visto bueno y junto con Robert Cailliau comenzó a escribir el nuevo sistema de hipertexto. A finales de 1990, World Wide Web, ya tenía forma. Desde la aparición de la web ha venido evolucionando a través de los años, empezando con la versión 1.0, para después surgir el 2.0, teniendo actualmente el 3.0, mismo que al cabo de unos años será remplazado para dar inicio a la nueva generación web 4.0




INTRODUCCION

La World Wide Web o Web es uno de los métodos más importantes de comunicación que existe en Internet. Consiste en un sistema de información basado en Hipertexto que reside en forma de páginas web. A la web se ingresar a través de cualquier servidor, se puede navegar por toda la red, gracias a que la mayoría de las páginas web contienen enlaces a otras páginas. 

La web es algo cotidiano para una gran parte de los más de 600 millones de usuarios de Internet que hay en todo el mundo. Sus utilidades son diversas, su impacto en la economía mundial es apreciable. No sólo hay documentos de texto: hay imágenes, vídeos, música, se pueden comprar, etc. 

A través de los años la web ha tenido cambios significativos esto provocado por el avance de la tecnología, pero conforme pasen los años seguirán surgiendo cambios a los cuales tendremos que habituarnos. 

Evolución de la Web 

En esta nueva era, se está comprobando como las nuevas tecnologías avanzan con paso de gigante alrededor nuestro convirtiendo una serie de procesos, que han sido muy validos durante años, en obsoletos de la noche a la mañana. Todo cambio por pequeño que sea, nos cuesta esfuerzo y casi siempre suele ser doloroso, por lo cual solemos resistirnos a él. Estas nuevas tecnologías han venido para quedarse, y no se trata de una moda pasajera que estará unos años entre nosotros y finalmente desaparecerá, de Internet se dijeron muchas cosas en sus comienzos, hoy es una realidad incontestable los años pasaron y no solo no desapareció, sino que se consolidó. 

Internet ha revolucionado en muy poco tiempo el modo de comunicarnos y de acceder a la información. World Wide Web cumplió veinte años, la estructura de la webtal y como la conocemos nació en el año de 1989 creada por dl inglés Tim Berners-Lee mientras trabajaba en el CERN en Ginebra, Suiza donde se probaron varias técnicas sobre redes para conectarse a Internet, llegándose a estandarizar los protocolos de conexión TCP/IP. En marzo de ese mismo año, Berners-Lee, utilizar un sistema de comunicación basado en el hipertexto para lograr ese flujo de información entre los científicos. 


En noviembre de 1990 Berners-Lee puso en marcha el sistema de hipertexto llamado Enquire que permitía almacenar piezas de información y conectarlas, y que se ejecutaba en un entorno multiusuario que permitía acceder a la información a varias personas a la vez. En marzo de 1991, escribió el primer programa visualizador para un servidor y cliente, que se convirtió en el origen de la World Wide Web. Este sistema duró hasta 1993, cuando la International Standards Organization (ISO) estandarizó el lenguaje Hypertext Markup Language (HTML). Hasta entonces, los documentos se editaban mediante TeX y PostScript, pero estos lenguajes eran demasiado complicados teniendo en cuenta que debían ser leídos por todo tipo de ordenadores, desde simples terminales hasta estaciones de trabajo gráficas X-Windows. Antes de 1990, Internet era un archipiélago de ordenadores inconexos y no se podía cruzar de una dirección a otra pulsando un enlace como ahora. Tampoco existían los buscadores, ni se podían integrar imágenes en la pantalla puesto que no habían nacido las interfaces gráficas. La idea que movió a Berners-Lee, fue desarrollar un método eficiente y rápido para intercambiar datos entre la comunidad científica. Para ello, combinó dos tecnologías ya existentes (el hipertext y el protocolo de comunicaciones de Internet), creando un nuevo modelo de acceso a la información intuitivo e igualitario: la web que hace posible que cualquiera pueda utilizar Internet. 


Una página web está compuesta principalmente por información (sólo texto o multimedia) e hiperenlaces; además puede contener o asociar datos de estilo para especificar cómo debe visualizarse, o aplicaciones embebidas para hacerla interactiva. Las páginas web son escritas en un lenguaje de marcado que provea la capacidad de insertar hiperenlaces, generalmente HTML. 

El contenido de la página puede ser predeterminado (página web estática) o generado al momento de visualizarla o solicitarla a un servidor web(página web dinámica). Las páginas dinámicas que se generan al momento de la visualización se hacen a través de lenguajes interpretados, generalmente JavaScript, y la aplicación encargada de visualizar el contenido es la que debe generarlo. Las páginas dinámicas que se generan al ser solicitadas son creadas por una aplicación en el servidor web que alberga las mismas. 

A medida que ha ido avanzando la tecnología a través de los años, la web desde su invención también ha tenido cambios considerables 

WEB 1.0 

Se caracteriza por ser un nuevo medio para informar. Los usuarios solo podían comunicarse con el webmaster mediante enlaces o formularios web de correo electrónico. Los foros constituyeron un nuevo sistema de comunicación bidireccional, entre el webmaster, la audiencia y sobre todo la audiencia entre sí, formando el germen de lo que sería la siguiente generación. 






WEB 2.0 

Se caracteriza por la explosión de nuevas herramientas para el webmaster, la información se cataloga, se etiqueta y se transforma en comunicación, gracias a la incorporación de comentarios de texto, audio, vídeo, chats, videochats. La web incorpora lenguajes de programación dinámicos y acceso a bases de datos. Nacen los blogs, los wikis, el audio y el vídeo se integran sin ningún problema en la web. Empieza a ser un sistema para potenciar las redes sociales. 




WEB 3.0 

Nuevas fórmulas fomentan la participación y la información relevante se comparte, se promociona, se filtra, con el fin de socializarla. La comunicación se expande a través de nuevos dispositivos y plataformas, que además se interconexionan mediante plugins o widgets, la web se vuelve tridimensional, la semántica de la información y la inteligencia colectiva consiguen dar un nuevo acceso al conocimiento.