martes, 25 de agosto de 2009

Programador

Un programador es aquel que escribe, depura y mantiene el código fuente de un programa informático, es decir, el conjunto de instrucciones que ejecuta el hardware de una computadora para realizar una tarea determinada. La programación es una de las principales áreas dentro de la informática. En la mayoría de los países, programador es también una categoría profesional reconocida.


Los programadores también reciben el nombre de desarrolladores de software.

El programador se encarga de la implementación de prototipos mediante un lenguaje de programación que pueda entender la computadora.


Inicialmente, la profesión se formalizó desde el enfoque Tayloriano de la especialización de funciones en la empresa. Así, el proceso de producción de software se concibe como un conjunto de tareas altamente especializadas donde está claramente definido el papel de cada categoría profesional:

El analista tiene como cometido analizar un problema y describirlo con el propósito de ser solucionado mediante un sistema de información.

El programador cuya única función consistía en trasladar las especificaciones del analista en código ejecutable por la computadora. Dichas especificaciones se recogen en un documento denominado cuaderno de carga, medio de comunicación entre ambos. Obsérvese que esto se consideraba un trabajo mecánico y de baja cualificación.

Hoy día se reconoce que este enfoque no es válido para organizar tareas de tipo intelectual, como es la producción de software. De manera que la profesión de programador ha ido evolucionando. Las dificultades de comunicación entre analistas y programadores (un mero documento no basta para describir lo que se quiere hacer) dio origen a una categoría profesional intermedia, denominada analista-programador. La concepción original del programador ha desaparecido siendo sustituida por esta: la de un profesional mucho más formado y con unas funciones menos "mecánicas".

La profesión de analista también ha evolucionado, surgiendo el concepto diseñador (de software). Esto se debe a los avances de la ingeniería del software donde se reconoce que el análisis es una actividad distinta del diseño. El análisis describe el problema (el qué hacer) mientras que el diseño describe la solución (el cómo hacerlo). En la mayoría de países industrializados esto ha dado lugar a la categoría profesional del diseñador o arquitecto del software.

IBM

International Business Machines o IBM es una empresa multinacional que fabrica y comercializa herramientas, programas y servicios relacionados con la informática. IBM tiene su sede en Armonk (Estados Unidos) y está constituida como tal desde el 15 de junio de 1911, pero lleva operando desde 1888.


Con alrededor de 390,000 empleados repartidos en unos 161 países, esta empresa tiene ingresos de 103.600 millones de dólares en 2008, IBM es la empresa de servicios basados en tecnología de información más grande del mundo y una de las pocas que lleva operando desde el siglo XX hasta la actualidad.

Tiene una presencia principal en prácticamente todos los segmentos relacionados con las tecnologías de la información; de hecho, en los años recientes, más de la mitad de sus ingresos vienen de sus ramas de consultoría y servicios, y no de la fabricación de equipos. Además es una firme patrocinadora del software libre.

Accelerated Graphics Port

Accelerated Graphics Port (AGP, Puerto de Gráficos Acelerado, en ocasiones llamado Advanced Graphics Port, Puerto de Gráficos Avanzado) es un puerto (puesto que solo se puede conectar un dispositivo, mientras que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones del PCI 2.1.


El puerto AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8 canales más adicionales para acceso a la memoria RAM. Además puede acceder directamente a esta a través del puente norte pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz.



El bus AGP cuenta con diferentes modos de funcionamiento.

AGP 1X: velocidad 66 MHz con una tasa de transferencia de 266 MB/s y funcionando a un voltaje de 3,3V.

AGP 2X: velocidad 133 MHz con una tasa de transferencia de 532 MB/s y funcionando a un voltaje de 3,3V.

AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.

AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Estas tasas de transferencias se consiguen aprovechando los ciclos de reloj del bus mediante un multiplicador pero sin modificarlos físicamente..

El puerto AGP se utiliza exclusivamente para conectar tarjetas gráficas, y debido a su arquitectura sólo puede haber una ranura. Dicha ranura mide unos 8 cm y se encuentra a un lado de las ranuras PCI.

A partir de 2006, el uso del puerto AGP ha ido disminuyendo con la aparición de una nueva evolución conocida como PCI-Express, que proporciona mayores prestaciones en cuanto a frecuencia y ancho de banda. Así, los principales fabricantes de tarjetas gráficas, como ATI y nVIDIA, han ido presentando cada vez menos productos para este puerto.

Peripheral Component Interconnect

Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.


A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.

HyperThreading

HyperThreading es una marca registrada de la empresa Intel para nombrar su implementación de la tecnología Multihreading Simultáneo también conocido como SMT. Permite a los programas preparados para ejecutar múltiples hilos (multi-threaded) procesarlos en paralelo dentro de un único procesador, incrementando el uso de las unidades de ejecución del procesador.
Esta tecnología consiste en simular dos procesadores lógicos dentro de un único procesador físico. El resultado es una mejoría en el rendimiento del procesador, puesto que al simular dos procesadores se pueden aprovechar mejor las unidades de cálculo manteniéndolas ocupadas durante un porcentaje mayor de tiempo. Esto conlleva una mejora en la velocidad de las aplicaciones que según Intel es aproximadamente de un 30 por ciento.

Memoria Cache o RAM Cache

Un cache es un sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de cache frecuentemente usados en las computadoras personales: memoria cache y cache de disco. Una memoria cache, llamada también a veces almacenamiento cache o RAM cache, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria cache es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.


Cuando un dato es encontrado en la cache, se dice que se ha producido un impacto (hit), siendo un cache juzgado por su tasa de impactos (hit rate). Los sistemas de memoria cache usan una tecnología conocida por cache inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el cache constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias cache están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una cache L2 de 512 Kbytes.

El cache de disco trabaja sobre los mismos principios que la memoria cache, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la cache del disco para ver si los datos ya están ahí. La cache de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.

La memoria cache está estructurada por celdas, donde cada celda almacena un byte. La entidad básica de almacenamiento la conforman las filas, llamados también líneas de cache. Por ejemplo, una cache L2 de 512 KB se distribuye en 16.384 filas y 63 columnas

Cuando se copia o se escribe información de la RAM por cada movimiento siempre cubre una línea de cache.
La memoria cache tiene incorporado un espacio de almacenamiento llamado Tag RAM, que indica a qué porción de la RAM se halla asociada cada línea de cache, es decir, traduce una dirección de RAM en una línea de cache concreta.

Intel Pentium D

Los procesadores Pentium D fueron introducidos por Intel en el Spring 2005 Intel Developer Forum. Un chip Pentium D consiste básicamente en 2 procesadores Pentium 4 metidos en un solo encapsulado (2 nucleos Prescott para el core Smithfield y 2 nucleos Cedar Mill para el core Presler) y comunicados a través del FSB. Su proceso de fabricación fue inicialmente de 90 nm y en su segunda generación de 65 nm. El nombre en clave del Pentium D antes de su lanzamiento era "Smithfield". Hubo un rumor que decía que estos chips incluían una tecnología DRM (Digital Rights Management) para hacer posible un sistema de protección anticopia de la mano de Microsoft, lo cual Intel desmintió, si bien aclarando que algunos de sus chipsets sí tenían dicha tecnología, pero no en la dimensión que se había planteado.


Los procesadores Pentium D no son monolíticos, es decir, los nucleos no comparten una única caché y la comunicación entre ellos no es directa, sino se realiza a través del bus del sistema.

DRAM

DRAM(Dynamic Random Access Memory) es un tipo de memoria electrónica de acceso aleatorio, que se usa principalmente en los módulos de memoria RAM y en otros dispositivos, como memoria principal del sistema. Se denomina dinámica, ya que para mantener almacenado un dato, se requiere revisar el mismo y recargarlo, cada cierto periodo de tiempo, en un ciclo de refresco. Su principal ventaja es la posibilidad de construir memorias con una gran densidad de posiciones y que todavía funcionen a una velocidad alta: en la actualidad se fabrican integrados con millones de posiciones y velocidades de acceso medidos en millones de bit por segundo. Es una memoria volátil, es decir cuando no hay alimentación eléctrica, la memoria no guarda la información. Inventada a finales de los sesenta, es una de las memorias mas usadas en la actualidad.

Memoria de núcleos magnéticos

La memoria de núcleos magnéticos, fue una forma de memoria principal de los computadores, hasta comienzos de los años 70. La función de esta memoria era similar a la que realiza la memoria RAM en al actualidad: es el espacio de trabajo, para la CPU, donde se graban los resultados inmediatos de las operaciones que se van realizando. A diferencia de la RAM basada en tecnologías DRAM, se basa en las propiedades magnéticas de su componente activo, el núcleo de ferrita y era una memoria no volátil.
El mecanismo de memoria se basa en la histéresis de la ferrita. Los toros de ferrita se disponen en una matríz de modo que sean atravesadas por dos hilos, X e Y, que discurren según las filas y columnas. Para escribir un bit en la memoria se envía un pulso simultáneamente por las líneas Xi e Yj correspondientes. El toro situado en la posición (i, j) se magnetizará en el sentido dado por los pulsos. Los demás toros, tanto de la fila como de la columna, no varían su magnetización ya que sólo reciben un pulso (X o Y), cuyo campo magnético es insuficiente para vencer la histéresis del toro.


El dato se lee mediante un nuevo hilo Z, que recorre todos los toros de la matriz. Escribimos un cero por el método descrito anteriormente, luego sólo el toro (i, j) puede cambiar de estado. Si contiene un cero, no cambia, luego en la línea Z no se tiene señal; pero si el toro tiene un uno, pasa a valer cero, su sentido de magnetización cambia e induce un pulso en la línea Z, que se leerá como "uno".

Como se ve, el proceso descrito destruye el dato que se lee, luego en las memorias de toros es necesario reescribir el dato tras leerlo.

Una palabra de n bits, pongamos 16 bits, necesita 16 matrices como la descrita, con 16 líneas Z, una por bit.

Intel Corporation

es una empresa multinacional que fabrica microprocesadores, circuitos integrados especializados tales como circuitos integrados auxiliares para placas base de computadora y otros dispositivos electrónicos.
Intel fue fundada por Gordon E. Moore y Robert Noyce en 1968, quienes inicialmente quisieron llamar a la empresa Moore Noyce, pero sonaba mal, así que eligieron como nombre las siglas de Integrated Electronics, en español Electrónica Integrada. Este nombre estaba registrado por una cadena hotelera, por lo que tuvieron que comprar los derechos para poder utilizarlo.


La compañía­ fue creada para aprovechar el potencial uso de los circuitos integrados como reemplazo de la memoria de núcleo magnético y otras memorias similares. En 1970 lanzo al mercado la primera memoria DRAM exitosa, justo un año antes de dar el salto a los microprocesadores. El primer microprocesador de Intel, el Intel 4004, fue creado en 1971 para facilitar el diseño de una calculadora. En lugar de tener que diseñar varios circuitos integrados para cada parte de la calculadora, diseñaron uno que según un programa almacenado en memoria podía hacer unas acciones u otras, es decir, un microprocesador. Hoy en día se discute si el primer microprocesador de la historia de la informática fue creado por Intel o por Texas Instruments.

Durante los años 90, Intel fue responsable de muchas de las innovaciones del hardware de los computadores personales, incluyendo los buses PCI, AGP y USB, además del nuevo PCI-Express. Sin embargo, no hay que olvidar muchos otros lanzamientos, intentos de estandarización fallidos, que la empresa tiene a su espalda (véase RDRAM, o el Slot 1 de sus Pentium III).

Intel domina el mercado de los microprocesadores. Actualmente, el principal competidor de Intel en el mercado es Advanced Micro Devices (AMD), empresa con la que Intel tuvo acuerdos de compartición de tecnología: cada socio podía utilizar las innovaciones tecnológicas patentadas de la otra parte sin ningún costo.

Dentro de los microprocesadores de Intel debemos destacar las tecnologías multinúcleo implementadas en los procesadores Pentium D y Core 2 Duo, la tecnología móvil Centrino desarrollada para el mercado de portátiles y la tecnología Hyper-Threading integrada en los procesadores Intel Pentium 4 y procesadores Intel core i7.

El 6 de junio de 2005 Intel llegó a un acuerdo con Apple Computer, por el que Intel proveerá procesadores para los ordenadores de Apple, realizándose entre 2006 y 2007 la transición desde los tradicionales IBM. Finalmente en enero de 2006 se presentaron al mercado las primeras computadoras de Apple, una portátil y otra de escritorio, con procesadores Intel Core Duo de doble núcleo.

La planta de microprocesadores de Intel en Costa Rica es responsable del 20% de las exportaciones nacionales y 4,9% del PIB del país.[1]Intel está en un proyecto llamado Tera Scale Computing. Este equipo logró un procesador de 80 núcleos con un consumo de 62 vatios que alcanzó 1 Teraflop. Han hecho una mejora que llega a los 2 Teraflops, esto lo han conseguido mejorando la refrigeración y optimizando los núcleos y han conseguido subir la frecuencia hasta 6,26 GHz y tiene un consumo de 160,17 vatios, se ha optimizado de tal manera que a la frecuencia de 3,13 GHz consume sólo 24 vatios, cuando está inactivo sólo consume 3,32 vatios y sólo mantiene 4 núcleos activos.

En 2008, Intel lanzó una nueva gama de procesadores llamados Intel Atom. Estos nuevos procesadores son muy pequeños y están diseñados para equipos MID (Mobile Internet Devices, Dispositivos Móviles de Internet) y netbooks. Están disponibles también bajo la plataforma Intel Centrino Atom y en dos núcleos (recientemente lanzado).

Actualmente han lanzado al mercado un nuevo procesador, el cual es denominado i7 y es el más rapido del planeta. Este procesador reemplazará a los procesadores Core 2 Duo.

domingo, 23 de agosto de 2009

Software libre

Software libre (en inglés free software, aunque en realidad esta denominación también significar gratis, y no necesariamente libre) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software; de modo más preciso, se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo cual se puede ayudar a otros, y de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).


El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

Fortran

Este lenguaje de estilo procedural fue el primero de alto nivel, desarrollado por IBM en 1957 para el equipo IBM 704. Está fuertemente orientado al cálculo y por ende es uno de los de mayor eficiencia en la ejecución.

La definición estándar del lenguaje se estableció en 1966.

Algunas otras versiones subsiguientes fueron:

FORTRAN IV
FORTRAN 80
FORTRAN 77
FORTRAN 90

Fortran ha sido ampliamente adoptado por la comunidad científica para escribir aplicaciones de cálculos intensivos. La inclusión en el lenguaje de la aritmética de números complejos amplió la gama de aplicaciones para las cuales el lenguaje se adapta especialmente; muchas técnicas de compilación de lenguajes se han implementado para mejorar la calidad del código generado por los compiladores de Fortran.

Principales características
El lenguaje fue diseñado teniendo en cuenta que los programas serían escritos en tarjetas perforadas de 80 columnas. Así por ejemplo, las líneas debían ser numeradas y la única alteración posible en el orden de ejecución era producida con la instrucción goto. Estas características han evolucionado de versión en versión. Las actuales contienen subprogramas, recursión y una variada gama de estructuras de control.

Ventajas e inconvenientes de su sintaxis
Lo que fue la primera tentativa de proyección de un lenguaje de programación de alto nivel, tiene una sintaxis considerada arcaica por muchos programadores que aprenden lenguajes más modernos. Es difícil escribir un bucle "for", y errores en la escritura de sólo un carácter pueden llevar a errores durante el tiempo de ejecución en vez de errores de compilación, en el caso de que no se usen las construcciones más frecuentes. Algunas de las versiones anteriores no poseían facilidades que son consideradas como útiles en las máquinas modernas, como la asignación dinámica de memoria.


Se debe tener en cuenta que la sintaxis de Fortran fue afinada para el uso en trabajos numéricos y científicos. Muchas de sus deficiencias han sido abordadas en revisiones recientes del lenguaje. Por ejemplo, Fortran 95 posee comandos mucho más breves para efectuar operaciones matemáticas con matrices y dispone de tipos. Esto no sólo mejora mucho la lectura del programa sino que además aporta información útil al compilador.

Por estas razones Fortran no es muy usado fuera de los campos de la informática y el análisis numérico, pero permanece como el lenguaje a escoger para desempeñar tareas de computación numérica de alto rendimiento.

Logo

Logo es un lenguaje de alto nivel en parte funcional en parte estructurado, de muy fácil aprendizaje, razón por la cual suele ser el lenguaje de programación preferido para trabajar con niños y jóvenes. Fue diseñado con fines didácticos por Danny Bobrow, Wally Feurzeig y Seymour Papert, los cuales se basaron en las características del lenguaje Lisp. A pesar de que Logo no fue creado con la finalidad de usarlo para enseñar programación, puede usarse para enseñar la mayoría de los principales conceptos de la programación, ya que proporciona soporte para manejo de listas, archivos y entrada/salida.


Papert desarrolló un enfoque basado en su experiencia con Piaget a principios de los sesenta. Fundamentalmente consiste en presentar a los niños retos intelectuales que puedan ser resueltos mediante el desarrollo de programas en Logo. El proceso de revisión manual de los errores contribuye a que el niño desarrolle habilidades metacognitivas al poner en práctica procesos de autocorrección.

Logo es uno de los pocos lenguajes de programación con instrucciones en español en algunos intérpretes, entre ellos: FMSLogo, LogoWriter, WinLogo, Logo Gráfico, XLogo, MSWLogo y LogoEs. Logo tiene más de 180 intérpretes y compiladores, según constan en el proyecto "Logo Tree".

XLogo, MSWLogo y LogoES tienen la particularidad de ser además software libre.

Perl

Perl es un lenguaje de programación diseñado por Larry Wall en 1987. Perl toma características del lenguaje C, del lenguaje interpretado shell (sh), AWK, sed, Lisp y, en un grado inferior, de muchos otros lenguajes de programación.


Estructuralmente, Perl está basado en un estilo de bloques como los del C o AWK, y fue ampliamente adoptado por su destreza en el procesado de texto y no tener ninguna de las limitaciones de los otros lenguajes de script.

Lisp

Lisp es el segundo lenguaje de programación más antiguo (después de Fortran) de alto nivel. Lisp es de tipo declarativo y fue creado en 1958 por John McCarthy y sus colaboradores en el MIT. Es considerado uno de los lenguajes más dificiles de aprendizaje del mundo.

Listas
El elemento fundamental en Lisp es la lista, en el sentido más amplio del término, pues tanto los datos como los programas son listas. De ahí viene su nombre, pues Lisp es un acrónimo de "LIStProcessing".

Las listas en LISP están delimitadas por paréntesis. De aquí viene el chiste del significado de LISP: "LostInStupidParentheses" que aunque con buen humor es completamente ficticio.
Algunas de las funciones predefinidas de Lisp tienen símbolos familiares (+ para la suma, * para el producto), pero otras son más exóticas, especialmente dos que sirven precisamente para manipular listas, descomponiéndolas en sus componentes. Sus nombres ("car" y "cdr") son un poco extraños, reliquias de tiempos pasados y de la estructura de los ordenadores de segunda generación, "car" devuelve la cabeza de una lista y "cdr" su cola o resto.
Lisp sigue una filosofía de tratamiento no-destructivo de los parámetros, de modo que la mayoría de las funciones devuelven una lista resultado de efectuar alguna transformación sobre la que recibieron, pero sin alterar esta última.
Uno de los motivos por los que Lisp es especialmente adecuado para la IA es el hecho de que el código y los datos tengan el mismo tratamiento (como listas); esto hace especialmente sencillo escribir programas capaces de escribir otros programas según las circunstancias.
Lisp fue uno de los primeros lenguajes de programación en incluir manejo de excepciones con las primitivas catch y throw.
Derivado del Lisp es el lenguaje de programación Logo. Sin entrar en detalles, podría decirse que Logo es Lisp sin paréntesis y con operadores aritméticos infijos.

ALGOL

Se denomina ALGOL (o Algol) a un lenguaje de programación. La voz es un acrónimo de las palabras inglesas Algorithmic Language (lenguaje algorítmico).


Fue muy popular en las universidades durante los años 60, pero no llegó a cuajar como lenguaje de utilización comercial.

Sin embargo, Algol influyó profundamente en varios lenguajes posteriores que sí alcanzaron gran difusión, como Pascal, C y Ada.

Hacia 1965 dos corrientes se distinguieron sobre el tema de un sucesor para Algol. Como resultado se definieron los lenguajes Algol W que es un lenguaje minimalista, rápidamente implementado y distribuido y, por otra parte, Algol 68 que para la época está en la frontera entre un lenguaje para programar en él y un lenguaje para investigar sobre él.

COBOL

El lenguaje COBOL (acrónimo de COmmon Business -Oriented Language, Lenguaje Común Orientado a Negocios) fue creado en el año 1960 con el objetivo de crear un lenguaje de programación universal que pudiera ser usado en cualquier ordenador, ya que en los años 1960 existían numerosos modelos de ordenadores incompatibles entre sí, y que estuviera orientado principalmente a los negocios, es decir, a la llamada informática de gestión .
En la creación de este lenguaje participó la comisión CODASYL , compuesta por fabricantes de ordenadores, usuarios y el Departamento de Defensa de Estados Unidos en mayo de 1959 . La definición del lenguaje se completó en poco más de seis meses, siendo aprobada por la comisión en enero de 1960 . El lenguaje COBOL fue diseñado inspirándose en el lenguaje Flow-Matic de Grace Hopper y el IBM COMTRAN de Bob Bemer , ya que ambos formaron parte de la comisión.
Gracias a la ayuda de los usuarios COBOL evolucionó rápidamente y fue revisado de 1961 a 1965 para añadirle nuevas funcionalidades. En 1968 salió la primera versión ANSI del lenguaje, siendo revisada posteriormente en 1974 (COBOL ANS-74), 1985 (COBOL ANS-85, ampliado en 1989 con funciones matemáticas, finalizando el estándar actual más usado, conocido como COBOL-ANSI), y en 2002 (COBOL ANS-2002). Desde el año 2007 se viene preparando una nueva revisión del lenguaje.
Además, existe una versión conocida como COBOL ENTERPRISE, actualizada regularmente y lanzada en 1991 , usada generalmente en sistemas Host.

Características
COBOL fue dotado de unas excelentes capacidades de autodocumentación, una buena gestión de archivos y una excelente gestión de los tipos de datos para la época, a través de la conocida sentencia PICTURE para la definición de campos estructurados. Para evitar errores de redondeo en los cálculos que se producen al convertir los números a binario y que son inaceptables en temas comerciales, COBOL puede emplear y emplea por defecto números en base diez . Para facilitar la creación de programas en COBOL, la sintaxis del mismo fue creada de forma que fuese parecida al idioma inglés, evitando el uso de símbolos que se impusieron en lenguajes de programación posteriores.

Pese a esto, a comienzos de los ochenta se fue quedando anticuado respecto a los nuevos paradigmas de programación y a los lenguajes que los implementaban. En la revisión de 1985 se solucionó, incorporando a COBOL variables locales, recursividad, reserva de memoria dinámica y programación estructurada.

En la revisión de 2002 se le añadió orientación a objetos, aunque desde la revisión de 1974 se podía crear un entorno de trabajo similar a la orientación a objetos, y un método de generación de pantallas gráficas estandarizado.

Antes de la inclusión de las nuevas características en el estándar oficial, muchos fabricantes de compiladores las añadían de forma no estándar. En la actualidad este proceso se está viendo con la integración de COBOL con Internet. Existen varios compiladores que permiten emplear COBOL como lenguaje de scripting y de servicio web . También existen compiladores que permiten generar código COBOL para la plataforma .NET y EJB .

Lenguaje de programación Pascal

Pascal es un lenguaje de programación desarrollado por el profesor suizo Niklaus Wirth a finales de los años 60. Su objetivo era crear un lenguaje que facilitara el aprendizaje de la programación a sus alumnos. Sin embargo con el tiempo su utilización excedió el ámbito académico para convertirse en una herramienta para la creación de aplicaciones de todo tipo. Pascal se caracteriza por ser un lenguaje de programación estructurado fuertemente tipificado. Esto implica que:

1.El código esta dividido en porciones fácilmente legibles llamadas funciones o procedimientos. De esta forma Pascal facilita la utilización de la programación estructurada en oposición al antiguo estilo de programación monolítica.

2.El tipo de dato de todas las variables debe ser declarado previamente para que su uso quede habilitado.

El nombre de Pascal fue escogido en honor al matemático Blaise Pascal .

C++

C++ es un lenguaje de programación diseñado a mediados de los años 1980 por Bjarne Stroustrup . La intención de su creación fue el extender al exitoso lenguaje de programación C con mecanismos que permitan la manipulación de objetos. En ese sentido, desde el punto de vista de los lenguajes orientados a objetos, el C++ es un lenguaje híbrido.

Posteriormente se añadieron facilidades de programación genérica , que se sumó a los otros dos paradigmas que ya estaban admitidos (programación estructurada y la programación orientada a objetos ). Por esto se suele decir que el C++ es un lenguaje multiparadigma.
Actualmente existe un estándar, denominado ISO C++, al que se han adherido la mayoría de los fabricantes de compiladores más modernos. Existen también algunos intérpretes, tales como ROOT (enlace externo).
Una particularidad del C++ es la posibilidad de redefinir los operadores (sobrecarga de operadores), y de poder crear nuevos tipos que se comporten como tipos fundamentales.
C++ permite trabajar tanto a alto como a bajo nivel siendo muy optimo.
El nombre C++ fue propuesto por Rick Mascitti en el año 1983 , cuando el lenguaje fue utilizado por primera vez fuera de un laboratorio científico. Antes se había usado el nombre "C con clases". En C++, la expresión "C++" significa "incremento de C" y se refiere a que C++ es una extensión de C.

GOTO

GOTO o GO TO es una instrucción muy común en los lenguajes de programación con el objetivo de controlar el flujo del programa. El efecto de su versión más simple es transferir sin condiciones la ejecución del programa a la etiqueta o número de línea especificada. Es una de las operaciones más primitivas para transpasar el control de una parte del programa a otra; tal es así que muchos compiladores traducen algunas instrucciones de control como GOTO.


La instrucción se puede encontrar en muchos lenguajes; uno de los primeros lenguajes de alto nivel que lo incluyeron fue el FORTRAN , desarrollado en 1954 . También se lo encuentra en: Algol , COBOL , SNOBOL , BASIC , Lisp , C , C++ , Pascal y Perl entre otros, especialmente el lenguaje ensamblador . En este último se lo puede encontrar como BRA (de branch: ramificar en inglés), JMP o JUMP (saltar o salto en inglés) y es, generalmente, el único modo de organizar el flujo del programa.

Existe incluso en lenguajes usados para la enseñanza de programación estructurada , como Pascal . Sin embargo, no está en todos los lenguajes de programación, en algunos (como Java ) es una palabra reservada y en el paródico lenguaje INTERCAL se utiliza COME FROM (venir de en inglés).

Se pueden encontrar también variaciones de la instrucción GOTO. En BASIC, la instrucción ON GOTO puede seleccionar de una lista de diferentes puntos del programa a los que saltar. Podría ser interpretado como un antecesor de la instrucción switch/case . También, en FORTRAN y algunas versiones de BASIC la línea a la que saltar podía ser indicada mediante una expresión aritmética. Esto último era evitado ya que el código se hacía aún más ilegible teniendo en cuenta la necesidad de hacer los cálculos de la expresión de control para saber el destino del flujo del programa.

BASIC

BASIC es un lenguaje de programación que originalmente fue desarrollado como una herramienta de enseñanza; se diseminó entre las microcomputadoras hogareñas a partir de la década de 1980 . Actualmente continúa siendo muy popular, en muchos dialectos bastante distintos del original.


BASIC es el acrónimo de Beginners All-purpose Symbolic Instruction Code; por correspondencia con Thomas E. Kurtz. (traducido al español: "código de instrucciones simbólicas de propósito general para principiantes") y está ligado al nombre de un trabajo sin publicar del coinventor del lenguaje, Thomas Kurtz (el nombre no está relacionado con la serie de C. K. Ogden, Basic English).

El lenguaje BASIC original fue inventado en 1964 por John George Kemeny (1926-1993) y Thomas Eugene Kurtz (1928-) en el Dartmouth College . En los años subsiguientes, mientras que otros dialectos de BASIC aparecían, el BASIC original de Kemeny y Kurtz fue conocido como BASIC Dartmouth.
BASIC fue diseñado para permitir a los estudiantes escribir programas usando terminales de un computador en tiempo compartido. Estaba pensado para reducir notablemente la complejidad de los otros lenguajes del momento, con uno diseñado específicamente para la clase de usuarios que los sistemas de tiempo compartido permitían: un usuario más sencillo, a quien no le interesaba tanto la velocidad, sino el hecho de ser capaz de programar y usar la máquina sin demasiadas complicaciones. Los diseñadores del lenguaje también querían que permaneciera en el dominio público, lo cual contribuyó a que se diseminara rápidamente.

Los ocho principios de diseño de BASIC fueron:

1.Ser fácil de usar para los principiantes.
2.Ser un lenguaje de propósito general (no orientado).
3.Permitir a los expertos añadir características avanzadas, conservando simple el lenguaje para los principiantes.
4.Ser interactivo.
5.Proveer mensajes de error claros y amigables.
6.Responder rápido en los programas pequeños.
7.No requerir un conocimiento del hardware de la computadora.
8.Proteger al usuario del sistema operativo .

Interfaz Gráfica de Usuario

La interfaz gráfica de usuario (en inglés graphical user interface, GUI) es un tipo de interfaz de usuario que utiliza un conjunto de imágenes y objetos gráficos para representar la información y acciones disponibles en la interfaz. Habitualmente las acciones se realizan mediante manipulación directa para facilitar la interacción del usuario con la computadora. Surge como evolución de la línea de comandos de los primeros sistemas operativos y es pieza fundamental en un entorno gráfico. Como ejemplo de interfaz gráfica de usuario podemos citar el escritorio o 'desktop' del sistema operativo Windows y el entorno X-Window de Linux y también Aqua de Mac OS X.
En el contexto del proceso de interacción persona - ordenador , la interfaz gráfica de usuario es el artefacto tecnológico de un sistema interactivo que posibilita, a través del uso y la representación del lenguaje visual , una interacción amigable con un sistema informático .

domingo, 16 de agosto de 2009

Microsoft Office 2007

Microsoft Office 2007 es la versión más reciente de la suite ofimática de Microsoft. Originalmente conocido como office 12 durante su ciclo beta, fue lanzado el 30 de noviembre de 2006 al mercado empresarial y el 30 de enero de 2007 al público en general, coincidiendo con el lanzamiento oficial de Windows Vista. Office 2007 incluye nuevas características, la más notable es la nueva interfaz gráfica Office Fluent, también conocido como cinta de opciones que reemplaza al menú y a la barra de herramientas que fueron características desde su inicio.

lunes, 10 de agosto de 2009

Reproductor de Windows Media

Windows Media Player (abreviado frecuentemente WMP) es un reproductor multimedia creado por la empresa Microsoft , en el año 1991 bajo Windows 3.0 y Windows 3.11
Se han lanzado varias versiones del reproductor. La versión 11 es la última existente, que se incluye con Windows Vista , pudiendo ser instalada también para Windows XP . La versión 12 del esperado reproductor por ahora solo está disponibles en la versión Beta del nuevo Windows Seven, según algunos rumores, el Windows Media Player 12 sólo estará disponible para Windows Seven y posteriormente para Windows Vista, las versiones de WMP 12 que andan circulando por la red y que funcionan sobre Windows XP, no son otra cosa que versiones modificadas del WMP 11.
El WMP permite reproducir diversos formatos digitales: Audio CD, DVD-Video , DVD-Audio , WMA (Windows Media Audio), WMV (Windows Media Video), MP3 , MPG y AVI , aunque el programa depende de códecs de terceros para estos formatos y muchos más.
Incluye acceso a video en formato digital en servidores de pago. También da la posibilidad de traspasar canciones de un CD al disco duro de la computadora y viceversa. Además, busca en Internet los nombres de las canciones y álbumes, además muestra la carátula del disco del cual provienen dichas canciones.
Otra función que potencia su uso es la Biblioteca de Windows Media, que permite la creación de listas de reproducción, administración de la música y edición de las etiquetas avanzadas, por ejemplo, se puede incluir la letra de la canción sincronizada para que se vea cuando se reproduzca.

Funciones de Internet

1.- Comunicación: Internet constituye un canal de comunicación (escrita, visual, sonora...) a escala mundial, cómodo y versátil. La red facilita la comunicación y la relación interpersonal asíncrona (correo electrónico como Yahoo , Gmail, Hotmail ) o síncrona (Chat , videoconferencia...), permite compartir y debatir ideas y facilita el trabajo cooperativo y la difusión de las creaciones personales. También permite la publicación de información accesible desde toda la Red (Web , weblogs , etc.)
2.- Información: Internet integra la mayor base de datos jamás imaginada, con información multimedia de todo tipo y sobre cualquier temática (Google , Altavista , etc.) Además puede integrar los "mass media" convencionales: canales de radio y televisión , prensa , cine .
3.- Comercio y gestiones administrativas: Cada vez son más las empresas que utilizan Internet como escaparate publicitario para sus productos y servicios (asesoramiento, mediación, banca ...), así como canal de venta o medio para realizar trámites y gestiones.
4.- Entretenimiento: Además de la satisfacción que proporciona el hallazgo de información sobre temas que sean de nuestro interés, Internet permite acceder a numerosos programas y entornos lúdicos (¡y hasta jugar con otras personas conectadas a la red!).
5.- Tele-trabajo: Cada vez son más las personas que realizan su trabajo, total o parcialmente, lejos de las dependencias de su empresa. Los ordenadores y los sistemas de telecomunicación permiten, si es necesario, estar en permanente contacto y acceder a la información y a las personas de todos los departamentos de la entidad.
6.- Soporte activo para el aprendizaje: Ante la cambiante y globalizada sociedad de la información, que exige a sus ciudadanos una formación permanente, Internet proporciona numerosos instrumentos que facilitan el aprendizaje autónomo, el trabajo colaborativo y la personalización de la enseñanza. Con todo ello, y a la luz de las perspectivas socio-constructivistas del aprendizaje , se va perfilando un nuevo paradigma para la enseñanza en el que la información está en todas partes, la comunicación puede realizarse en cualquier momento.

Java y JavaScript

Un avance significativo en la tecnología web fue la Plataforma Java de Sun Microsystems . Este lenguaje permite que las páginas web contengan pequeños programas (llamados applets ) directamente en la visualización. Estos applets se ejecutan en el ordenador del usuario, proporcionando un interfaz de usuario más rico que simples páginas web. Los applets Java del cliente nunca obtuvieron la popularidad que Sun esperaba de ellos, por una serie de razones, incluyendo la falta de integración con otros contenidos (los applets fueron confinados a pequeñas cajas dentro de la página renderizada) y el hecho de que muchos ordenadores del momento eran vendidos a los usuarios finales sin una JVM correctamente instalada, por lo que se necesitaba que el usuario descargara la máquina virtual antes de que el applet comenzara a aparecer. Actualmente Adobe Flash desempeña muchas de las funciones que originalmente se pensaron que podrían hacer los applets de Java incluyendo la ejecución de contenido de vídeo, animaciones y algunas características superiores de GUI . En estos momentos Java se utiliza más como plataforma y lenguaje para el lado del servidor y otro tipo de programación.
JavaScript , en cambio, es un lenguaje de script que inicialmente fue desarrollado para ser usado dentro de las páginas web. La versión estandarizada es el ECMAScript . Si bien los nombres son similares, JavaScript fue desarrollado por Netscape y no tiene relación alguna con Java, aparte de que sus sintaxis derivan del lenguaje de programación C . En unión con el Document Object Model de una página web, JavaScript se ha convertido en una tecnología mucho más importante de lo que pensaron sus creadores originales. La manipulación del Modelo de Objetos de Documento después de que la página ha sido enviada al cliente se ha denominado HTML Dinámico (DHTML), para enfatizar un cambio con respecto a las visualizaciones de HTML estático.
En su forma más simple, toda la información opcional y las acciones disponibles en las páginas web con JavaScript ya son cargadas la primera vez que se envía la página. Ajax ("Asynchronous JavaScript And XML", en español, JavaScript Asíncrono y XML) es una tecnología basada en JavaScript que puede tener un efecto significativo para el desarrollo de la Web. Ajax proporciona un método por el cual grandes o pequeñas partes dentro de una página web pueden actualizarse!, usando nueva información obtenida de la red en respuesta a las acciones del usuario. Esto permite que la página sea mucho más confiable, interactiva e interesante, sin que el usuario tenga que esperar a que se cargue toda la página. Ajax es visto como un aspecto importante de lo que suele llamarse Web 2.0 . Ejemplos de técnicas Ajax usadas actualmente pueden verse en Gmail , Google Maps etc.

World Wide Web

En informática , la World Wide Web o simplemente la Web, cuya traducción podría ser Red Global Mundial, es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet . Con un navegador web , un usuario visualiza sitios web compuestos de páginas web que pueden contener texto , imágenes , vídeos u otros contenidos multimedia , y navega a través de ellas usando hiperenlaces .
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra , Suiza , y publicado en 1992 . Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica .

WPA

WPA (Wi-Fi Protected Access - 1995 - Acceso Protegido Wi-Fi) es un sistema para proteger las redes inalámbricas (Wi-Fi ); creado para corregir las deficiencias del sistema previo WEP (Wired Equivalent Privacy - Privacidad Equivalente a Cableado). Los investigadores han encontrado varias debilidades en el algoritmo WEP (tales como la reutilización del vector de inicialización (IV), del cual se derivan ataques estadísticos que permiten recuperar la clave WEP, entre otros). WPA implementa la mayoría del estándar IEEE 802.11i, y fue creado como una medida intermedia para ocupar el lugar de WEP mientras 802.11i era finalizado. WPA fue creado por "The Wi-Fi Alliance" (La Alianza Wi-Fi), ver http://www.wi-fi.org/ .
WPA adopta la autentificación de usuarios mediante el uso de un servidor, donde se almacenan las credenciales y contraseñas de los usuarios de la red. Para no obligar al uso de tal servidor para el despliegue de redes, WPA permite la autentificación mediante clave compartida ([PSK], Pre-Shared Key), que de un modo similar al WEP, requiere introducir la misma clave en todos los equipos de la red.

WEP

WEP, acrónimo de Wired Equivalent Privacy o "Privacidad Equivalente a Cableado", es el sistema de cifrado incluido en el estándar IEEE 802.11 como protocolo para redes Wireless que permite cifrar la información que se transmite. Proporciona un cifrado a nivel 2, basado en el algoritmo de cifrado RC4 que utiliza claves de 64 bits (40 bits más 24 bits del vector de iniciación IV) o de 128 bits (104 bits más 24 bits del IV). Los mensajes de difusión de las redes inalámbricas se transmiten por ondas de radio, lo que los hace más susceptibles, frente a las redes cableadas, de ser captados con relativa facilidad. Presentado en 1999, el sistema WEP fue pensado para proporcionar una confidencialidad comparable a la de una red tradicional cableada.
Comenzando en 2001, varias debilidades serias fueron identificadas por analistas criptográficos . Como consecuencia, hoy en día una protección WEP puede ser violada con software fácilmente accesible en pocos minutos. Unos meses más tarde el IEEE creó la nueva corrección de seguridad 802.11i para neutralizar los problemas. Hacia 2003, la Alianza Wi-Fi anunció que WEP había sido reemplazado por Wi-Fi Protected Access (WPA ). Finalmente en 2004, con la ratificación del estándar completo 802.11i (conocido como WPA2 ), el IEEE declaró que tanto WEP-40 como WEP-104 fueron revocados por presentar fallas en su propósito de ofrecer seguridad. A pesar de sus debilidades, WEP sigue siendo utilizado, ya que es a menudo la primera opción de seguridad que se presenta a los usuarios por las herramientas de configuración de los routers aún cuando sólo proporciona un nivel de seguridad que puede disuadir del uso sin autorización de una red privada, pero sin proporcionar verdadera protección. Fue desaprobado como un mecanismo de privacidad inalámbrico en 2004, pero todavía está documentado en el estándar actual.
WEP es a veces interpretado erróneamente como Wireless Encryption Protocol.

Wi- Fi

Wi-Fi es un sistema de envío de datos sobre redes computacionales que utiliza ondas de radio en lugar de cables , además es una marca de la Wi-Fi Alliance (anteriormente la WECA : Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 .
Seguridad y fiabilidad
Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de inteferencias.
Un muy elevado porcentaje de redes son instaladas sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o muy vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:
Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP y el WPA , que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos
WEP , cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una "clave" de cifrado antes de enviarlo al aire.
WPA : presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
IPSEC (túneles IP ) en el caso de las VPN y el conjunto de estándares IEEE 802.1X , que permite la autenticación y autorización de usuarios.
Filtrado de MAC , de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados.
Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router ) de manera que sea invisible a otros usuarios.
El protocolo de seguridad llamado WPA2 (estándar 802.11i ), que es una mejora relativa a WPA . En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
 

Entrada/Salida

En computación , entrada/salida, también abreviado E/S o I/O (del original en inglés input/output), es la colección de interfaces que usan las distintas unidades funcionales (subsistemas ) de un sistema de procesamiento de información para comunicarse unas con otras, o las señales (información ) enviadas a través de esas interfaces. Las entradas son las señales recibidas por la unidad, mientras que las salidas son las señales enviadas por ésta. El término puede ser usado para describir una acción; "realizar una entrada/salida" se refiere a ejecutar una operación de entrada o de salida. Los dispositivos de E/S los usa una persona u otro sistema para comunicarse con una computadora. De hecho, a los teclados y ratones se los considera dispositivos de entrada de una computadora, mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora. Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones, tanto entrada como salida, y entre otros se encuentran los módems y tarjetas de red .
Dispositivos de entrada/salida
Entrada:
Teclado
Ratón
Joystick
Lápiz óptico
Micrófono
Webcam
Escáner
Escáner de código de barras
Pantalla táctil
Salida:
Monitor
Altavoz
Auriculares
Impresora
Plotter
Proyector
Entrada/salida:
Unidades de almacenamiento
CD
DVD
Módem
Fax
USB

BUS

el bus es un sistema digital que transfiere datos entre los componentes de un computador o entre computadores. Están formado por cables o pistas en un circuito impreso , dispositivos como resistencias y condensadores además de circuitos integrados.
En los primeros computadores electrónicos, todos los buses eran de tipo paralelo, de manera que la comunicación entre las partes de computador se hacía por medio de cintas o muchas pistas en el circuito impreso, en los cuales cada conductor tiene una función fija y la conexión es sencilla requiriendo únicamente puertos de entrada y de salida para cada dispositivo.
La tendencia en los últimos años es el uso de buses seriales como el USB , Firewire para comunicaciones con periféricos y el reemplazo de buses paralelos para conectar toda clase de dispositivos, incluyendo el microprocesador con el chipset en la propia placa base. Son conexiones con lógica compleja que requieren en algunos casos gran poder de computo en los propios dispositivos, pero que poseen grandes ventajas frente al bus paralelo que es menos inteligente.
Existen diversas especificaciones de bus que definen un conjunto de características mecánicas como conectores, cables y tarjetas, además de protocolos eléctricos y de señales.
Tipos
Existen dos grandes tipos clasificados por el método de envió de la información: bus paralelo o serial. Hay diferencias en el desempeño y hasta hace unos años se consideraba que el uso apropiado dependía de la longitud física de la conexión: para cortas distancias el bus paralelo,para largas el serial.

Bus paralelo
Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con la ayuda de varias lineas que tienen funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho de los datos por la frecuencia de funcionamiento. En los computadores ha sido usado de manera intensiva, desde el bus del procesador, los buses de discos duros, tarjetas de expansión y de vídeo, hasta las impresoras.
El Front Side Bus de los procesadores Intel es un bus de este tipo y como cualquier bus presenta unas funciones en lineas dedicadas:
LasLineas de Dirección son las encargadas de indicar la posición de memoria o el dispositivo con el que se desea establecer comunicación.
Las Lineas de Control son las encargadas de enviar señales de arbitraje entre los dispositivos. Entre las más importantes están las lineas de interrupción, DMA y los indicadores de estado.
Las Lineas de Datos trasmiten los bits, de manera que por lo general un bus tiene un ancho que es potencia de 2.
Un bus paralelo tiene conexiones físicas complejas, pero una la lógica es sencilla, que lo hace útil en sistemas con poco poder de computo. En los primeros microcomputadores, el bus era simplemente la extensión del bus del procesador y los demás integrados "escuchan" las linea de direcciones, en espera de recibir instrucciones. En el PC IBM original, el diseño del bus fue determinante a la hora de elegir un procesador con I/O de 8 bits (Intel 8088 ), sobre uno de 16 (el 8086), porque era posible usar hardware diseñado para otros procesadores, abaratando el producto.

Bus serie
En este los datos son enviados, bit a bit y se reconstruyen por medio de registros o rutinas de software. Está formado por pocos conductores y su ancho de banda depende de la frecuencia. Es usado desde hace menos de 10 años en buses para discos duros, tarjetas de expansión y para el bus del procesador.

Hardware

corresponde a todas las partes físicas y tangibles de una computadora : sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e intangible que es llamado software . El término proviene del inglés y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora ".
Tipos de Hardware
Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el "básico", que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora , y por otro lado, el "Hardware complementario", que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora .

Circuito Integrado (CI)

Un circuito integrado (CI), es una pastilla pequeña de silicio , de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos eléctricos con base a dispositivos constituidos por semiconductores y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.
Tipos
Existen tres tipos de circuitos integrados:

Circuitos monolíticos: Están fabricados en un solo monocristal, habitualmente de silicio , pero también existen en germanio , arseniuro de galio , silicio-germanio, etc.
Circuitos híbridos de capa fina: Son muy similares a los circuitos monolíticos, pero, además, contienen componentes difíciles de fabricar con tecnología monolítica. Muchos conversores A/D y conversores D/A se fabricaron en tecnología híbrida hasta que los progresos en la tecnología permitieron fabricar resistencias precisas.
Circuitos híbridos de capa gruesa: Se apartan bastante de los circuitos monolíticos. De hecho suelen contener circuitos monolíticos sin cápsula (dices), transistores , diodos , etc, sobre un sustrato dieléctrico, interconectados con pistas conductoras. Las resistencias se depositan por serigrafía y se ajustan haciéndoles cortes con láser . Todo ello se encapsula, tanto en cápsulas plásticas como metálicas, dependiendo de la disipación de potencia que necesiten. En muchos casos, la cápsula no está "moldeada", sino que simplemente consiste en una resina epoxi que protege el circuito. En el mercado se encuentran circuitos híbridos para módulos de RF, fuentes de alimentación, circuitos de encendido para automóvil , etc.

Clasificación

Circuitos integrados analógicos .
Circuitos integrados digitales . En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores , osciladores o incluso receptores
Éstos son diseñados y fabricados para cumplir una función específica dentro de un sistema. En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido de forma que llegan a ser microscópicos. Sin embargo, permiten de radio completos. Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados microprocesadores o microcontroladores . grandes simplificaciones con respecto los antiguos circuitos, además de un montaje más rápido.

CPU

La unidad central de procesamiento, o CPU (por el acrónimo en inglés Central Processing Unit), o, simplemente, el procesador, es el componente en una computadora digital que interpreta las instrucciones y procesa los datos contenidos en los programas de la computadora. Las CPU proporcionan la característica fundamental de la computadora digital (la programabilidad ) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida . Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados . Desde mediados de los años 1970 , los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.

Sistema Operativo

Un sistema operativo es un software de sistema , es decir, un conjunto de programas de computación destinados a realizar muchas tareas entre las que destaca la administración eficaz de sus recursos.
Cuando se aplica voltaje al procesador de un dispositivo electrónico, éste ejecuta un reducido código en lenguaje ensamblador localizado en una dirección concreta en la ROM (dirección de reset) y conocido como reset code, que a su vez ejecuta una rutina con la que se inicializa el hardware que acompaña al procesador. También en esta fase suele inicializarse el controlador de las interrupciones . Finalizada esta fase se ejecuta el código de arranque (startup code), también código en lenguaje ensamblador, cuya tarea más importante es ejecutar el programa principal del software de la aplicación .
Un sistema operativo se puede encontrar en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, radios, etc).

Memoria ROM

Memoria de sólo lectura (normalmente conocida por su acrónimo, Read Only Memory) es una clase de medio de almacenamiento utilizado en las computadoras y otros dispositivos electrónicos. Los datos almacenados en la ROM no se puede modificar -al menos no de manera rápida o fácil- y se utiliza principalmente para contener el firmware (software que está estrechamente ligada a hardware específico, y es poco probable que requieren actualizaciones frecuentes).
En su sentido más estricto, se refiere sólo a ROM máscara ROM -en inglés MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados en forma permanente, y por lo tanto, nunca puede ser modificada. Sin embargo, las más modernas, como EPROM y Flash EEPROM se puede borrar y volver a programar varias veces, aún siendo descritos como "memoria de sólo lectura (ROM), porque el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria.

Disco duro

Un disco duro o disco rígido (en inglés hard disk drive) es un dispositivo de almacenamiento no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital ; es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora . Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA , este último estandarizado en el año 2004 y FC exclusivo para servidores.

CD WR

Un disco compacto reescribible (conocido popularmente como CD-RW, "Compact Disc-Re Writable") es un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD sirve para tanto grabar como para después borrar esa información. Fue desarrollado conjuntamente en 1980 por las empresas Sony y Philips , y comenzó a comercializarse en 1982. Hoy en día tecnologías como el DVD pueden desplazar o minimizar esta forma de almacenamiento, aunque su uso sigue vigente.
En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio y telurio que presenta una interesante cualidad: si se calienta hasta cierta temperatura, cuando se enfría deviene cristalino, pero si al calentarse se alcanza una temperatura aún más elevada, cuando se enfría queda con estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante mientras que las zonas con estructura amorfa absorben la luz. Por ello el CD-RW utiliza tres tipos de luz:
-Láser de escritura: Se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne amorfo.
-Láser de borrado: Se usa para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue el estado cristalino.
-Láser de lectura: Se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y se dispersa en las amorfas.

martes, 4 de agosto de 2009

Memoria RAM

La memoria de acceso aleatorio, (en inglés : Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. Es el área de trabajo para la mayor parte del software de un computador. Existe una memoria intermedia entre el procesador y la RAM, llamada caché , pero ésta sólo es una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM. Los módulos de RAM son la presentación comercial de este tipo de memoria, se compone de integrados soldados sobre un circuito impreso .