martes, 17 de febrero de 2009

"PROCESO DE CREACION DEL SOFTWARE"

Se define como Proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr la obtención de un producto software que resuelva un problema. Ese proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (ejemplo: resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) y/o costo: de Pequeño, Mediano y Gran porte. Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una estimación de todos los costos de producción en un "proyecto software" (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.). Considerando los de gran porte, es necesario realizar tantas y tan complejas tareas, tanto técnicas, de gerenciamiento, fuerte gestión y análisis diversos (entre otras) que toda una ingeniería hace falta para su estudio y realización: es la Ingeniería de Software. En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) puede realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o Proceso de Desarrollo escogido y utilizado por el equipo de desarrollo o analista-programador solitario (si fuere el caso). Los "procesos de desarrollo de software" poseen reglas preestablecidas, y deben ser aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto o no logre concluir o termine sin cumplir los objetivos previstos y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales "procesos" los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP) y variantes intermedias; y normalmente se aplican de acuerdo al tipo y porte y tipología del software a desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos son Extreme Programming (XP), Rational Unified Process (RUP), Feature Driven Development (FDD), etc. Cualquiera sea el "proceso" utilizado y aplicado en un desarrollo de software (RUP, FDD, etc), y casi independientemente de él, siempre se debe aplicar un "Modelo de Ciclo de Vida". Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan, un 46% caen en severas modificaciones que lo retrasan y un 26% son totalmente exitosos. Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales en su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los proyectos) son los Ingenieros en Software, es su orientación. Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en Informática, Ingeniero en Informática, Ingeniero de Sistemas, etc.) normalmente aplican sus conocimientos especializados pero utilizando modelos, paradigmas y procesos ya elaborados. Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen sus propias metodologías, normalmente un híbrido de los procesos anteriores y a veces con criterios propios. El proceso de desarrollo puede involucrar numerosas y variadas tareas, desde lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero casi rigurosamente siempre se cumplen ciertas etapas mínimas; las que se pueden resumir como sigue: Captura, Elicitación, Especificación y Análisis de requisitos (ERS) Diseño. Codificación. Pruebas (unitarias y de integración). Instalación y paso a Producción. Mantenimiento. En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente más refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de "Análisis y Diseño"; o indicar como "Implementación" lo que está dicho como "Codificación"; pero en rigor, todas existen e incluyen, básicamente,las mismas tareas específicas. En el apartado 4 del presente artículo se brindan mayores detalles de cada una de las listadas etapas.

"CLASIFICACION DEL SOFTWARE"

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:
Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del computador en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento.
El sistema operativo tiene tres grandes funciones: coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el mouse; organiza los archivos en diversos medios de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los errores de hardware y la pérdida de datos.

Cómo funciona un sistema operativo:

Los sistemas operativos controlan diferentes procesos de la computadora, como la ejecución de un programa de hoja de cálculo o el acceso a información almacenada en la memoria del ordenador. Un proceso importante es la interpretación de los comandos que permiten al usuario comunicarse con el ordenador. Algunos intérpretes de instrucciones están basados en texto, y exigen que las instrucciones sean tecleadas. Otros intérpretes de instrucciones están basados en gráficos, y permiten al usuario comunicarse señalando y haciendo clic en un icono, una imagen que aparece en la pantalla y representa una instrucción determinada. Generalmente, los principiantes consideran más fácil de usar los intérpretes basados en gráficos, pero muchos usuarios informáticos expertos prefieren los intérpretes de instrucciones basados en texto porque son más potentes.

Los sistemas operativos pueden ser de tarea única o multitarea. Los sistemas operativos de tarea única, más primitivos, sólo pueden manejar un proceso en cada momento. Por ejemplo, cuando la computadora está imprimiendo un documento, no puede iniciar otro proceso ni responder a nuevas instrucciones hasta que se termine la impresión.

Todos los sistemas operativos modernos son multitarea y pueden ejecutar varios procesos simultáneamente. En la mayoría de los ordenadores sólo hay una UCP; un sistema operativo multitarea crea la ilusión de que varios procesos se ejecutan simultáneamente en la UCP. El mecanismo que se emplea más a menudo para lograr esta ilusión es la multitarea por segmentación de tiempos, en la que cada proceso se ejecuta individualmente durante un periodo de tiempo determinado. Si el proceso no finaliza en el tiempo asignado, se suspende y se ejecuta otro proceso. Este intercambio de procesos se denomina conmutación de contexto. El sistema operativo se encarga de controlar el estado de los procesos suspendidos. También cuenta con un mecanismo llamado planificador que determina el siguiente proceso que debe ejecutarse. El planificador ejecuta los procesos basándose en su prioridad para minimizar el retraso percibido por el usuario. Los procesos parecen efectuarse simultáneamente por la alta velocidad del cambio de contexto.

Los sistemas operativos pueden emplear memoria virtual para ejecutar procesos que exigen más memoria principal de la realmente disponible. Con esta técnica se emplea espacio en el disco duro para simular la memoria adicional necesaria. Sin embargo, acceder al disco duro requiere más tiempo que acceder a la memoria principal, por lo que el funcionamiento del ordenador resulta más lento.

Sistemas operativos actuales:

Los sistemas operativos empleados normalmente en los PC son el UNIX, el Macintosh OS, el MS-DOS, el OS/2 y el Windows-NT. El UNIX, desarrollado en 1969 en los laboratorios Bell de AT&T, es un sistema operativo popular entre los usuarios informáticos universitarios. Su popularidad se debe en gran medida al crecimiento de Internet, cuyo software fue diseñado originalmente para computadoras que funcionaban con UNIX. Entre las variantes de UNIX figuran el SunOS (distribuido por Sun Microsystems, Inc.), Xenix (distribuido por Microsoft Corporation) y Linux. El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un método sencillo de organizar los archivos de disco y permite a los usuarios proteger sus archivos frente a otros usuarios. Sin embargo, las instrucciones del UNIX no son intuitivas. Otros sistemas operativos multiusuario y multitarea son OS/2, desarrollado inicialmente por Microsoft Corporation e International Business Machines (IBM) y Windows-NT, desarrollado por Microsoft. El sistema operativo multitarea de las computadoras Apple se denomina Macintosh OS. El DOS y su sucesor, el MS-DOS, son sistemas operativos populares entre los usuarios de PC. Sólo permiten un usuario y una tarea.

Tecnologías futuras:

Los sistemas operativos siguen evolucionando. Los sistemas operativos distribuidos, están diseñados para su uso en un grupo de ordenadores conectados pero independientes que comparten recursos. En un sistema operativo distribuido, un proceso puede ejecutarse en cualquier ordenador de la red (normalmente, un ordenador que no esté haciendo nada en ese momento) para aumentar el rendimiento de ese proceso. En los sistemas distribuidos, todas las funciones básicas de un sistema operativo —como mantener los sistemas de archivos, garantizar un comportamiento razonable y recuperar datos en caso de fallos parciales— resultan más complejas.

Software de programación:

Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica.

Software de aplicación:

Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios.

"DEFINICION DE SOFTWARE"

Probablemente la definición más formal de software sea la siguiente: Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación. Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario es parte del software: es decir, abarca todo lo intangible, todo lo "no físico" relacionado. El término (software) fue usado por primera vez en este sentido por John W. Tukey en 1957. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, "Los números computables", con una aplicación al problema de decisión.

SOFTWARE

La palabra «software» se refiere al equipamiento lógico o soporte lógico de un computador digital, y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).

Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interface ante el usuario.

En la figura 1 se muestra uno o más software en ejecución, en este caso con ventanas, iconos y menúes que componen las interfaces gráficas, que comunican el ordenador con el usuario y le permiten interactuar.

Software es lo que se denomina producto en la Ingeniería de Software.

¿QUE ES SOFTWARE?

Es el conjunto de programas que ejecutan una computadora. Estos programas contienen instrucciones u órdenes, las cuales se encuentran modificados en un lenguaje que las computadoras pueden comprender. OTRO CONCEPTO: Es una serie de programas que permiten la resolución de problemas utilizando como medio de ejecución del computador. El software en si es la parte intangible del computador.

TIPOS DE HARDWARE.

Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el básico, que refiere al conjunto de componentes indispensables para otorgar la funcionalidad mínima a una computadora, y por otro lado, el "Hardware complementario", que, como su nombre indica, es utilizado para realizar funciones específicas (más allá de las básicas) no estrictamente necesarias para el funcionamiento de la computadora.

Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria, que consisten básicamente en operaciones aritmético-lógicas y de entrada/salida. Reciben las entradas (datos), las procesan y almacenan (procesamiento), y finalmente producen salidas (resultados del procesamiento). Todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las siguientes funciones; a saber:
Entrada:
Periféricos de Entrada (E) Salida: Periféricos de salida (S) Entrada/Salida: Periféricos mixtos (E/S) Almacenamiento: Memorias Procesamiento: Unidad Central de Procesamiento o CPU
Desde un punto de vista básico y general, un
dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida, el ejemplo más típico es el
disco rígido (ya que en él se lee y se graba información y datos).
Procesador :
La CPU o PROCESADOR, es la componente fundamental del computador encargada de interpretar y ejecutar instrucciones, y procesar datos. . En los computadores modernos, la función de la CPU la realiza el microprocesador. Este es un circuito integrado que contiene una o varias unidades de proceso.

Un servidor de red o una máquina de cálculo de alto rendimiento (supercomputación), puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU.

Las unidades centrales de proceso (CPU) en la forma de un único procesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica"; como pueden ser: controladores de procesos industriales , televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más.

placa madre o mother board

procesador se monta en la llamada placa madre, normalmente sobre un zócalo (Socket de CPU) que permite las conexiones eléctricas entre los circuitos de la tarjeta y el procesador; encima del procesador y ajustado a la tarjeta madre se monta el un disipador de calor que por lo general es de aluminio o en algunos casos especiales de cobre y tiene un ventilador para hacer circular el aire circundante; el disipador es necesario ya que la CPU consume bastante potencia que emite en forma de calor. En algunos casos puede consumir la misma potencia que una lampara incandescente mediana (de 35 a 130 vatios). Por ello incluso suelen traer tanto sensores de temperatura como de revoluciones de sus ventiladores, si por alguna eventualidad la temperatura supera cierto límite, el equipo se apaga automáticamente.

La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados en la placa madre.

La placa madre, también conocida como placa base o con el anglicismo "board",[11] es un gran circuito impreso que incluye ranuras de expansión (slots), zócalos, conectores, etc. y es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión,almacenamiento de memoria, perifericos de entrada y salida. Actualmente muchas de las funciones que realizaban tarjetas "menores" (red, vídeo simple, audio, módem, etc.), ahora se encuentran integradas en el impreso como parte de la misma placa madre; Esto no a excluido la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos.

Memoria RAM:

Del inglés Random Access Memory, que significa memoria de acceso aleatorio, un termino con el que se denominó, desde los primeros años de los computadores electrónicos, a la memoria principal. Acceso aleatorio se refiere a la cualidad de acceder cualquier posición de memoria con el mismo tiempo de respuesta, a diferencia de las memorias de acceso secuencial que se caracterizan por presentar tiempos de acceso desiguales para diferentes posiciones (por ejemplo las unidades de cinta, discos duros).

Normalmente por RAM se hace referencia a los módulos de memoria utilizados en una computadora, en estos están instalados varios circuitos integrados de memoria DRAM que sirven como espacio de trabajo para el procesador.Una copia de los programas y documentos de usuario almacenados en el disco duro son cargados en la memoria RAM en donde son leídos por el procesador, ejecutados y modificados. El primer programa en cargarse en la memoria RAM es el sistema operativo.Las copias de programa, documentos y la sesión del sistema operativo están almacenadas en una memoria volátil, es decir se borra en caso de que la memoria no tenga alimentación eléctrica.

Módulo de memoria RAM

Esta es la presentación comercial de memoria principal para la mayoría de computadores modernos(computador personal, Servidor), es otra tarjeta de circuito impreso al igual que la placa base y tiene soldados circuitos integrados de memoria por una o ambas caras, además de otros elementos como resistencias y condensadores. Tiene una serie de contactos metálicos(con una recubrimiento de oro) que le permiten hacer conexión eléctrica con el bus de memoria del controlador de memoria en la placa base. Sus dimensiones y características eléctricas y físicas son estándar y modulares, es decir , existe una amplia gama de módulos intercambiables. Los integrados de memoria son del tipo DRAM, una memoria llamada dinámica en la cual las posiciones de memoria son muy simples (un un transistor y un condensador), pero tienden a borrarse por lo cual hay que refrescarlas, es decir hay que leerlas y volverlas a escribir con el valor original periódicamente. Este defecto se se elimina con el uso de circuitos de refresco, que aunque aumentan la complejidad del integrado, no llegan a igualar la complejidad y el tamaño que puede tener las memorias estáticas SRAM. Entonces se pueden construir memorias DRAM de tamaños capacidades (algunos cientos de Megabytes) a un costo relativamente bajo y con integrados pequeños. Las posiciones de memoria o celdas, están organizadas en matrices y almacenan cada una un bite. Para acceder a ellas se han ideado varios métodos y protocolos cada uno mejorado con el objetivo de acceder a las celdas requeridas de la manera mas veloz posible.

Las tecnologías de memoria se basan principalmente en nuevos direccionamiento de posiciones de memoria y en los últimos años se impuso el formato SDRAM o RAM dinamica sincronica, es decir un direccionamiento basado en una o varias señales de reloj provenientes del bus de memoria.
Entre las tecnologías recientes para integrados de memoria DRAM usados en los módulos RAM se encuentran:
SDR SDRAM Memoria con un ciclo sencillo de acceso por ciclo de reloj. Actualmente en desuso, fue popular en la equipos basados en el Pentium III y los primeros Pentium 4 .
DDR SDRAM Memoria con un ciclo doble y acceso anticipado a dos posiciones de memoria consecutivas. Fue popular en equipos basados en los procesadores Pentium 4 y Athlon 64.
DDR2 SDRAM Memoria con un ciclo doble y acceso anticipado a cuatro posiciones de memoria consecutivas. Es la memoria mas usada actualmente.
DDR3 SDRAM Memoria con un ciclo doble y acceso anticipado a ocho posiciones de memoria consecutivas. Es un tipo de memoria en auge, pero por su costo solo es utilizada en equipos de gama alta.
Los módulos pueden fabricarse de diversas maneras y de hecho cada fabricante en una época lo hizo así, pero desde hace 20 años se impusieron los estándares JEDEC que establecen las características eléctricas de los módulos y las físicas, como las dimensiones del circuito impreso. Los estándares usados actualmente son :
DIMM Con presentaciones de 168 pines (usadas con SDR y otras tecnologías antiguas), 184 pines (usadas con DDR y el obsoleto RIMM) y 240 (para las tecnologías de memoria DDR2 y DDR3).
SO-DIMM Para computadores portátiles, es una miniaturizacion de la version DIMM en cada tecnologia. Existen de 144 pines (usadas con SDR), 200 pines (usadas con DDR y DDR2) y 240 pines (para DDR3).
Hardware Gráfico.
El hardware gráfico lo constituyen básicamente las tarjetas de video que actualmente poseen su propia memoria y Unidad de Procesamiento, llamada unidad de procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar exclusivamente procesamiento gráfico, liberando al procesador de esa costosa tarea (en tiempo) para que pueda así efectuar otras funciones. Antes de las tarjetas de video con aceleración, el procesador era el encargado de construir la imagen mientras la sección de video (tarjeta o de la placa base) era simplemente un traductor de las señales binarias a señales requeridas por el monitor;buena parte de la memoria principal de la computadora también era utilizada para estos fines.
La Ley de Moore establece que cada 18 a 24 meses el número de transistores en un circuito integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante más notable, duplicando o aún más lo indicado en la ley de Moore. Desde los años 90, la evolución en el procesamiento gráfico ha tenido un crecimiento vertiginoso; las actuales animaciones por computadoras y los videojuegos eran impensables veinte años atrás.
Periféricos.
Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los sistemas de almacenamiento secundario o masivo también son considerados periféricos. Los periféricos son todos aquellos dispositivos que no pertenecen al núcleo de proceso, la CPU y la memoria principal, y permiten realizar las operaciones llamadas de entrada/salida (E/S). Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos imprescindibles; pero no lo son un scanner o un plotter. Para ilustrar este punto, en los años 80, muchas de los primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), sólo una o dos disqueteras, el teclado y el monitor.
Periféricos de entrada
teclado
mouse

En esta categoría están aquellos que permiten el ingreso de información, en general desde alguna fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental de comunicar a la computadora (más propiamente al procesador) información de ingreso de alguna fuente, local o remota. También permiten cumplir la esencial tarea de leer o cargar las aplicaciones o programas informáticos, los que a su vez permiten poner en función a la computadora (sistema operativo) y realizar las más diversas tareas.

Entre los periféricos de entrada se puede mencionar: teclado, mouse o ratón, escáner, micrófono, cámara web , lectores ópticos de código de barras, Joystick, lectora de CD o DVD (sólo lectoras), placas de adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el funcionamiento al teclado, mouse y algún tipo de lectora de discos; ya que sólo con ellos el hardware puede ponerse operativo. Los otros son bastante accesorios, aunque en la actualidad pueden resultar de tanta utilidad que son considerados parte esencial de todo el sistema.

impresora.

Periféricos de salida.
Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones realizadas por la
CPU (procesamiento).
Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar información y datos procesados; ya sea al usuario o bien a otra fuente externa, local o remota.
Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las impresoras, y los altavoces.
Periféricos mixtos.
Son aquellos dispositivos que pueden operar de ambas formas, como entrada o como salida[9] . Típicamente, se puede mencionar como periféricos de Entrada/Salida a: discos rígidos, disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos ZIP, etc. También entran en este rango, con sutil diferencia, otras unidades, tales como: Memoria flash, tarjetas de red, módems, placas de captura/salida de vídeo, etc.
Si bien, puede ponerse al pendrive o Memoria flash o Memoria USB en la categoría de memorias, normalmente se las utiliza como dispositivos de almacenamiento masivo; y éstos son todos de categoría E/S.
Los dispositivos de almacenamiento masivo[8] también son conocidos como "Memorias Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor importancia en la actualidad, en él se aloja el sistema operativo, todas las aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar información y datos en grandes volúmenes por tiempo prácticamente indefinido. Servidores Web, de correo y de redes con bases de datos utilizan discos rígidos de grandes capacidades y con una tecnología que les permite trabajar a altas velocidades. La Pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de mostrar información y datos (salida) puede actuar como un dispositivo de entrada de datos (reemplazando, por ejemplo, las funciones del mouse).
También están dentro de esta categoría las fotocopiadoras y las impresoras multifunción, pues ambos periféricos pueden escanear, imprimir o fotocopiar.

lunes, 16 de febrero de 2009

HISTORIA DEL HARDWARE.

La historia del computador electrónico, ha sido dividida en generaciones , cada una suponiendo una mejora en todos los aspectos frente a la anterior. En un principio era muy sencillo establecer cada una, ya que el hardware estaba sufriendo cambios radicales: los componentes electrónicos esenciales para la electrónica del computador fueron cambiados en las primeras tres generaciones (tubos, transistores, circuitos integrados). Esto supone unos cambios en todas las características físicas, cambios muy visibles. Las ultimas generaciones (después de la tercera) se han establecido de manera un arbitraria porque el cambio ha sido la mejora de un componente de manera gradual, sin cambios abruptos, que aunque haya resultado en cambio muy grande, no permite establecer fechas de ruptura o clasificaciones tan precisas, como las anteriores. 1ª generación (1945-1956): Con tubos de vacío. Fueron las primeras maquinas en eliminar componentes electromecánicos (relés) de la parte lógica. 2ª generación (1957-1963): Con transistores. Los circuitos logicos eran muy parecidos , pero al implementación era mucho mas pequeña, reduciendo el tamaño de un computador en una gran escala. 3ª generación (1964-hoy): Con circuitos Integrados . Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado conformando una pastilla de circuito integrado hecha de silicio. Las computadoras con el tiempo redujeron su costo y tamaño, incrementándose su capacidad, velocidad y fiabilidad hasta producir maquinas como las que se ven en la actualidad. 4ª generación (futuro-lejano futuro): Iniciara en el momento en el que se invente un dispositivo que reemplace los circuitos integrados de silicio. La aparición del microprocesador supuso un cambio, pero había una continuidad con los equipos que no poseían un dispositivo de esta naturaleza, de hecho, aunque los microprocesadores fueron lanzados al mercado a principios de los años 70, todavía a comienzo de los 80 había computadores como el PDP-11 que eran maquinas que carecían de un microprocesador como tal y eran maquinas vigentes, que llegado un tiempo simplemente, migraron a la tecnología con microprocesador, sin tener cambios muy profundos. Este esquema de clasificación no permite clasificar los adelantos de los ultimos 30 años a menos de que se integren como parte de la tercera generacion, ya que una cuarta generación supondria el reemplazo del microprocesador basado en silicio por otros dispositivo.

¿QUE ES HARDWARE?

Sistema formado por el equipo computacional es decir por las partes físicas de la computadora llamadas comúnmente “fierros” induye la unidad central de procesamiento (cpu), la memoria principal y los dispositivos periféricos. OTRO CONCEPTO: Comprende todos los componentes físicos del computador, es decir es la parte tangible (todo lo que se puede tocar) sus componentes eléctricos, electrónicos, electromecánicos y mecánicos;[contrariamente al soporte lógico intangible que es llamado software. El término proviene del inglés y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora". Sin embargo, el término, aunque es lo más común, no necesariamente se aplica a una computadora tal como se la conoce, así por ejemplo, un robot también posee hardware (y software). El termino se ha extendido a cualquier sistema que tenga una parte programable (contenida en algún tipo de memoria, no necesariamente eléctrica), para diferenciar esa parte intangible (el programa) de las parte tangible.

¿QUE ES UNA ACOMPUTADORA?

Una computadora es un dispositivo electrónico programable que puede almacenar, recuperar y procesar datos. En palabra más sencillas es una máquina que obedece las ordenes para recibir información del exterior (entrada), guardarla(almacenamiento), usarla en sus operaciones o juicios (proceso) y expresar los resultados de esta (salida). Fieman sostiene que una computadora es una máquina de propósito general que procesa datos de acuerdo con el conjunto de instrucciones que están almacenada en el interior ya sea temporal o permanente. A la computadora y a todo equipo conectado a ella se le denomina HARDWARE y a las instrucciones que le dicen que debe hacer se llama SOFTWARE. (programa).

¿QUIEN INVENTO LA COMPUTADORA?

Este genial invento, la computadora, es una máquina capaz de realizar operaciones lógicas y matemáticas utilizando rutinas o programas informáticos; como veremos, fue John Atanassoff quién inventó el prototipo de la computadora moderna. La verdad, es difícil atribuir a una sola persona, la invención de la computadora. Para los expertos, son varias las personas que aportaron conocimientos y creaciones, como para que se desarrollara este invento. Pero si se tiene que señalar a una sola persona, como quien inventó la computadora, es a John Vincent Atanassoff. Quien nació en Nueva York, el 4 de octubre de 1903. Atanassoff, tenía orígenes búlgaros, por parte de sus padres. Por ende, era el típico chiquillo, hijo de inmigrantes. Desde corta edad, le interesaron las materias científicas. Por ende, estudió física. Desde aquella incursión académica, se comenzó a interesar, por los cálculos matemáticos. Especialmente, por aquellos realizados, por medio de máquinas. Claro, que en su época, sólo existían máquinas análogas. Las cuales eran consideradas por el físico, como lentas y muy imprecisas. Fue así, como quien desarrolló la computadora, inició el largo camino, para desarrollar una máquina digital. Por ende, Atanassoff, comenzó rápidamente, a idear su máquina digital (en 1933), para lo cual pidió la asistencia de algún estudiante destacado, de la universidad donde el trabajaba. Se le mencionó a Clifford Berry, un destacado estudiante de ingeniería electrónica. Para la creación de la computadora, el físico ideo cuatro conceptos básicos para su desarrollo. Electricidad y componentes electrónicos, un sistema binario, condensadores para almacenar datos o información y un sistema lógico para el cómputo. Con la ayuda de Berry, comenzaron a trabajar en la computadora, en uno de los sótanos de la Universidad del Estado de Iowa. La máquina que llegaron a desarrollar, tuvo un costo final, de más de mil cuatrocientos dólares. La máquina en sí, estaba constituida, por un tambor rotatorio para manejar la información en la memoria, un sistema lógico, capacitadores y tubos al vacío. La computadora, se llamó ABC. Por Atanassoff-Berry Computer. El invento estuvo terminado en 1942. Fue la primera computadora digital electrónica. Claro que la pelea por determinar quien inventó la computadora, comenzaría justo en aquel momento. Ya que John W. Mauchly, vio y analizó la computadora de Atanassoff. Por lo que copió muchos de sus conceptos, para luego con J. Presper Eckert, desarrollar la famosa computadora ENIAC. Claro que en su momento, quien inventó la computadora, o sea, Atanassoff, no patentó inmediatamente su computadora. E ahí, donde se originó el problema de la paternidad sobre la máquina. La situación llegó a los tribunales y luego de una larga disputa, se llegó en 1972 a la conclusión, que Atanassoff es el padre de la primera computadora digital electrónica de la historia. Luego 23 años después, en 1995, Anatassoff, muere en Maryland, dejando tras de sí las bases del invento que revolucionaría al mundo.