lunes, 15 de noviembre de 2010

EL MICROPROCESADOR, EL CEREBRO DEL ORDENADOR


El microprocesador o simplemente procesador, es el circuito integrado más importante, de tal modo, que se le considera el cerebro de una computadora. Está constituido por millones de transistores integrados. Puede definirse como chip, un tipo de componente electrónico en cuyo interior existen miles o en ocasiones millones, según su complejidad, de elementos llamados transistores cuyas interacciones permiten realizar las labores o funciones que tenga encomendado el chip.


Desde el punto de vista funcional, un microprocesador es un circuito integrado que incorpora en su interior una unidad central de proceso (CPU) y todo un conjunto de elementos lógicos que permiten enlazar otros dispositivos como memorias y puertos de entrada y salida (I/O), formando un sistema completo para cumplir con una aplicación específica dentro del mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores que cambió totalmente la forma de trabajar, ha sido la computadora personal, ordenador o microcomputadora.
Así mismo, es la parte de la computadora diseñada para llevar a cabo o ejecutar los programas. Éste ejecuta instrucciones que se le dan a la computadora a muy bajo nivel realizando operaciones lógicas simples, como sumar, restar, multiplicar o dividir. Se ubica generalmente en un zócalo específico en la placa o tarjeta madre y dispone para su correcto y estable funcionamiento de un sistema de refrigeración (generalmente de un ventilador montado sobre un disipador de metal térmicamente muy conductor).
Lógicamente funciona como la unidad central de procesos (CPU/Central Procesing Unit), que está constituida por registros, la unidad de control y la unidad aritmético-lógica principalmente, aunque en la mayoría de las ocasiones también integra una unidad de coma flotante. En el microprocesador se procesan todas las acciones de la computadora.
Su "velocidad" se determina por la cantidad de operaciones por ciclo que puede realizar y los ciclos por segundo que desarrolla: también denominada frecuencia de reloj. La frecuencia de reloj se mide Hertzios, pero dado su elevado número se utilizan los múltiplos megahertzio o gigahertzio
Una computadora personal o más avanzada puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias terminales (redes). Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.
La tendencia de los últimos años ha sido la de integrar múltiples núcleos dentro de un mismo encapsulado, además de componentes como memorias caché, controladoras de memoria e incluso unidades de procesamiento gráfico; elementos que anteriormente estaban montados sobre la placa base como dispositivos individuales.



La evolución del microprocesador

 

El microprocesador es un producto de la computadora y la tecnología semiconductora. Su desarrollo se eslabona desde la mitad de los años 50; estas tecnologías se fusionaron a principios de los años 70, produciendo el llamado microprocesador.
La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (Alta escala de integración)
Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para empleo militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles.
La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el Transistor.
En los años 50, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío o bulbos como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío fueron usados para construir circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos construyeron la computadora (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para el estudio de los circuitos digitales, en la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas.
La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital. La idea de almacenar programas fue muy importante.
La tecnología de los circuitos de estado sólido evolucionó en la década de los años 50. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron al transistor ser el más usado para el diseño de circuitos. Por lo tanto el diseño de la computadora digital fue un gran avance del cambio para reemplazar al tubo al vacío por el transistor a finales de los años 50.
A principios de los años 60, el arte de la construcción de computadoras de estado sólido se incrementó y surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).
A mediados de los años 60 se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes en los circuitos de fabricación. A finales de los años 60's y principios de los años 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo.
Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador, unión de las palabras "Micro" del griego μικρο-, "pequeño" y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a nanométrica
  • El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo.
  • El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3300 transistores.
  • El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo.
  • Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, acercándose a 800 millones de transistores, como es en el caso de las serie Core i7




DISTINTAS ARQUITECTURAS Y FABRICANTES DE PROCESADORES


65xx
  • MOS Technology 6502
  • Western Design Center 65xx
  • ARM
  • Altera Nios, Nios II
  • AVR (puramente microcontroladores)
  • EISC
  • RCA 1802 (aka RCA COSMAC, CDP1802)
  • DEC Alpha
  • Intel
  • Intel 4556, 4040
  • Intel 8970, 8085, Zilog Z80
  • Intel Itanium
  • Intel i860
  • Intel i515
  • LatticeMico32
  • M32R
  • MIPS
  • Motorola
  • Motorola 6800
  • Motorola 6809
  • Motorola c115, ColdFire
  • corelduo 15485
  • sewcret ranses 0.2457
  • Motorola 88000 (antecesor de la familia PowerPC con el IBM POWER)
  • IBM POWER (antecesor de la familia PowerPC con el Motorola 88000)
  • Familia PowerPC, G3, G4, G5
  • NSC 320xx
  • OpenRISC
  • PA-RISC
  • National Semiconductor SC/MP ("scamp")
  • Signetics 2650
  • SPARC
  • SuperH family
  • Transmeta Crusoe, Transmeta Efficeon (arquitectura VLIW, con emulador de la IA32 de 32-bit Intel x86)
  • INMOS Transputer
  • x86
  • Intel 8086, 8088, 80186, 80188 (arquitectura x86 de 16-bit con sólo modo real)
  • Intel 80286 (arquitectura x86 de 16-bit con modo real y modo protegido)
  • IA-32 arquitectura x86 de 32-bits
  • x86-64 arquitectura x86 de 64-bits
  • Cambridge Consultants XAP
CARACTERISTICAS DEL MICROPROCESADORES



El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital nos ayudará a entender el microprocesador. El microprocesador hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador podemos diferenciar diversas partes:
  • El encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.
  • La memoria cache: es una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que predeciblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM reduciendo el tiempo de espera. Por ejemplo: en una biblioteca, en lugar de estar buscando cierto libro a través de un banco de ficheros de papel se utiliza la computadora, y gracias a la memoria cache, obtiene de manera rápida la información. Todos los micros compatibles con PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2 e incluso memoria caché de nivel 3, o L3.
  • Coprocesador Matemático: o correctamente la FPU (Unidad de coma flotante). Que es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte esta considerada como una parte "lógica" junto con los registros, la unidad de control, memoria y bus de datos.
  • Los registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros esta diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que CPU los utiliza en algunas operaciones, en total son treinta y dos registros.
  • La memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las toma de ahí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de trabajo para el procesador.
  • Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es parecido a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un número de puerto que el procesador utiliza como un número de teléfono para llamar al circuito o a partes especiales.
FABRICANTES
INTEL 80286
El Intel 80286 (llamado oficialmente iAPX 286, también conocido como i286 o 286) es un microprocesador de 16 bits de la familia x86, que fue lanzado al mercado por Intel el 1 de febrero de 1982. Cuenta con 134.000 transistores. Las versiones iniciales del i286 funcionaban a 6 y 8 MHz, pero acabó alcanzando una velocidad de hasta 25 MHz. Fue el microprocesador elegido para equipar al IBM Personal Computer/AT, lo que causó que fuera el más empleado en los compatibles PC (más propiamente compatibles AT) entre mediados y finales de los años 80 .
Tras las versiones iniciales a 6 y 8 MHz, Intel lanzó un modelo a 12,5 MHz. AMD y Harris ampliaron esa velocidad a 20 MHz y 25 MHz, respectivamente. En promedio, el 80286 tenía una velocidad de unas 0,21 instrucciones por ciclo de reloj.[1] El modelo de 6 MHz operaba a 0,9 MIPS, el de 10 MHz a 1,5 MIPS, y el de 12 MHz a 2,66 MIPS.[2]
El rendimiento del 80286 es más del doble que el de sus predecesores (los Intel 8086 e Intel 8088) por ciclo de reloj. De hecho, el aumento de rendimiento por ciclo de reloj puede ser el mayor entre las diferentes generaciones de procesadores x86. El cálculo de los modos de direccionamiento más complejos (como base + índice) utilizaban menos ciclos de reloj porque eran realizados por un circuito especial en el 286; el 8086, ha de realizar el cálculo de la dirección efectiva en la ULA general, lo que consume muchos ciclos. Además, operaciones matemáticas complejas (como MUL/DIV) ocupan menos ciclos que en el 8086.
Al tener un bus de direcciones de 24 bits, es capaz de direccionar hasta 16 MB (16 MiB) de memoria RAM, mientras que el 8086 sólo puede 1 MB. Aunque MS-DOS puede utilizar la RAM adicional ( memoria extendida ) mediante una llamada a la BIOS INT 15h, AH=87h), como disco RAM o mediante emulación de memoria expandida previamente habilitada mediante software la memoria extendida, pocos ordenadores basados en el i286 tuvieron más de 1 MB de memoria.
El i286 fue diseñado para ejecutar aplicaciones multitarea, incluyendo comunicaciones (como PBX automatizadas), control de procesos en tiempo real y sistemas multiusuario. Para ello se le añadió un modo protegido, en el cual existían cuatro anillos de ejecución y división de memoria mediante tablas de segmentos. En este modo trabajaban las versiones de 16 bits del sistema operativo OS/2. En este modo protegido se permitía el uso de toda la memoria directamente, y que además ofrecía protección entre aplicaciones para evitar la escritura de datos accidental (o malintencionada) fuera de la zona de memoria asignada. Sin embargo, una vez que el procesador entraba en el modo protegido, no podía volver al modo real sin resetear el procesador. El microcontrolador Intel 8042, utilizado para controlar el teclado en los AT, tiene una función que resetea sólo la CPU (la famosa combinación CTRL - ALT - DEL).
A pesar de su gran popularidad, hoy en día quedan pocos ordenadores con el i286 funcionando.
El sucesor del i286 fue el Intel 80386, de 32 bits.


viernes, 12 de noviembre de 2010

SOFTWARE LIBRE

El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por la ambigüedad del término en el idioma inglés) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

HISTORIA EVOLUTIVA

Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de la década de 1970, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.
En 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.
Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.
En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que ésta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que modificase el software.
El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.
La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente. En ese preciso instante, Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software propietario firmando acuerdos de no revelación y acabar desarrollando más software propietario con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.
Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de software libre y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.

Libertades del software libre


la libertad de usar el programa, con cualquier propósito.
la libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades.
la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu prójimo.
la libertad de mejorar el programa y hacer públicas esas mejoras a los demás, de modo que toda la comunidad se beneficie.

Tipos de licencias


Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:
Licencias GPL

Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.
Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.
En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.
En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.[4]
Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL.

Licencias AGPL

La Licencia Pública General de Affero (en inglés Affero General Public License, también Affero GPL o AGPL ) es una licencia copyleft derivada de la Licencia Pública General de GNU diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red.
La Affero GPL es íntegramente una GNU GPL con una cláusula nueva que añade la obligación de distribuir el software si éste se ejecuta para ofrecer servicios a través de una red de ordenadores.
La Free Software Foundation recomienda que el uso de la GNU AGPLv3 sea considerado para cualquier software que usualmente corra sobre una red.

Licencias estilo BSD

Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").

Licencias estilo MPL y derivadas

Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.

Copyleft

Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.

Comparación con el software de código abierto


Aunque en la práctica el software de código abierto y el software libre comparten muchas de sus licencias, la Free Software Foundation opina que el movimiento del software de código abierto es filosóficamente diferente del movimiento del software libre. Apareció en 1998 con un grupo de personas, entre los que cabe destacar a Eric S. Raymond y Bruce Perens, que formaron la Open Source Initiative (OSI). Ellos buscaban darle mayor relevancia a los beneficios prácticos del compartir el código fuente, e interesar a las principales casas de software y otras empresas de la industria de la alta tecnología en el concepto. Por otro lado, la Free Software Foundation y Richard Stallman prefieren plantear el asunto en términos éticos empleando el término "software libre".
Los defensores del término "código abierto", en inglés open source, afirman que éste evita la ambigüedad del término en ese idioma que es free en free software. El término "código abierto" fue acuñado por Christine Peterson del think tank Foresight Institute, y se registró para actuar como marca registrada el término en inglés para los productos de software libre.
Mucha gente reconoce el beneficio cualitativo del proceso de desarrollo de software cuando los desarrolladores pueden usar, modificar y redistribuir el código fuente de un programa. (Véase también La Catedral y el Bazar). El movimiento del software libre hace especial énfasis en los aspectos morales o éticos del software, viendo la excelencia técnica como un producto secundario deseable de su estándar ético. El movimiento de código abierto ve la excelencia técnica como el objetivo prioritario, siendo la compartición del código fuente un medio para dicho fin. Por dicho motivo, la FSF se distancia tanto del movimiento de código abierto como del término "Código Abierto" (en inglés Open Source).
Puesto que la OSI sólo aprueba las licencias que se ajustan a la Open Source Definition (definición de código abierto), la mayoría de la gente lo interpreta como un esquema de distribución, e intercambia libremente "código abierto" con "software libre". Aun cuando existen importantes diferencias filosóficas entre ambos términos, especialmente en términos de las motivaciones para el desarrollo y el uso de tal software, raramente suelen tener impacto en el proceso de colaboración.
Aunque el término "código abierto" elimina la ambigüedad de libertad frente a precio (en el caso del inglés), introduce una nueva: entre los programas que se ajustan a la definición de código abierto, que dan a los usuarios la libertad de mejorarlos, y los programas que simplemente tiene el código fuente disponible, posiblemente con fuertes restricciones sobre el uso de dicho código fuente. Mucha gente cree que cualquier software que tenga el código fuente disponible es de código abierto, puesto que lo pueden manipular (un ejemplo de este tipo de software sería el popular paquete de software gratuito Graphviz, inicialmente no libre pero que incluía el código fuente, aunque luego AT&T le cambió la licencia). Sin embargo, mucho de este software no da a sus usuarios la libertad de distribuir sus modificaciones, restringe el uso comercial, o en general restringe los derechos de los usuarios.

miércoles, 3 de noviembre de 2010

TRES MODELOS DE DISCO DURO


comparativa de disco duro



 LG Quantum características avanzadas
General Red GSM 850 / 900 / 1800 / 1900 - HSDPA 850 / 1900 / 2100
Anunciado 2010, Octubre
Status Pronto
Tamaño Dimensiones 119.5 x 59.5 x 15.2 mm
Peso
176 g
Display Tipo TFT touchscreen capacitivo, 16M colores
Tamaño 480 x 800 pixels, 3.5 pulgadas
- Teclado QWERTY - Soporte multi-touch - Sensor acelerómetro para auto rotación - Sensor de proximidad para auto apagado
Ringtones Tipo Polifónico, MP3, WAV
Customización Descargas
Vibración Si
- Conector de audio 3.5 mm
Memoria Agenda telefónica Entradas y campos prácticamente ilimitados, Foto de llamada
Registro de llamadas Prácticamente ilimitado
Slot de tarjeta No
- 16 GB memoria interna, 256 MB RAM, 512 MB ROM - Procesador Qualcomm Snapdragon QSD8650 1 GHz
Características GPRS Clase 10 (4+1/3+2 slots)
Velocidad de datos 32 - 48 kbps
OS Microsoft Windows Phone 7
Mensajería SMS, MMS, Email, Push Email, IM
Navegador HTML
Reloj Si
Alarma Si
Puerto infrarrojo No
Juegos Si + descargables
Colores Negro
Cámara 5 MP, 2592 x 1944 pixels, autofocus, flash LED, geo-tagging, video 720p
- GPS con soporte A-GPS - Brújula digital - EDGE Clase 10 - 3G HSDPA / HSUPA - Wi-Fi; DNLA - Bluetooth v2.1 A2DP - microUSB 2.0 - Reproductor de video MP4/H.264/H.263/WMV - Reproductor de audio MP3/WAV/WMA/eAAC+ - Radio FM Stereo con RDS - Organizador - Memo de voz - Manoslibres incorporado - Ingreso predictivo de texto
Batería Standard, Li-Ion 1500 mAh
Stand-by Hasta 350 h
Tiempo de conversación
Hasta 6 h

SEAGATE
Modelo ST3750640AS
Dimensiones (Alto x Largo x Ancho) 26,1 mm x 147 mm x 101,6 mm
Peso 720 g
Capacidad 750 GB
Interfaz SATA II (300 MB/s) / 3,5 pulgadas
Velocidad de rotación 7200 RPM
Caché 16 MB
Latencia promedio / Tiempo de acceso 4,16 ms / 13 ms
Temperaturas de trabajo de 0° C a 60° C
Consumo medio 9,30 W en modo inactivo (idle) 13 W en modo operativo
Ruido promedio 27 dBA en modo inactivo 30 dBA en modo búsqueda 0
Características especiales NCQ (Native Command Queue) Escritura perpendicular

DISCO DURO SAMSUNG INTERNO 320GB
Tipo de dispositivo: Disco duro interno
Anchura 7 cm
Profundidad 10 cm
Altura 9.5 mm
Peso 105 g
Disco duro
Factor de forma 2.5" x 1/8H
Capacidad 320 GB
Tipo de interfaz Serial ATA-300
Tamaño de búfer 8 MB
Homologado S.M.A.R.T.
Índice de transferencia de la unidad 300 MBps #externo#
Tasa de datos internos 138 MBps
Tiempo de búsqueda 12 ms #media#
Velocidad del eje 5400 rpm
Errores irreversibles 1 por 10^14
Ciclos de inicio / parada 600
Expansión / conectividad
Interfaces 1 x Serial ATA-300 - Serie ATA de 7 espigas
Compartimentos compatibles 1 x interna - 2.5" x 1/8H
Temperatura mínima de funcionamiento 5 °C
Temperatura máxima de funcionamiento 55 °C
Ámbito de humedad de funcionamiento 5 - 90%
Tolerancia a las vibraciones 1.5 g @ RMS #random# #operativo#

jueves, 28 de octubre de 2010

Tipos de Disco Duro

Los recursos tecnológicos y el saber hacer requeridos para el desarrollo y la producción de discos modernos implica que desde 2007, más del 98% de los discos duros del mundo son fabricados por un conjunto de grandes empresas: Seagate (que ahora es propietaria de Maxtor), Western Digital, Samsung e Hitachi (que es propietaria de la antigua división de fabricación de discos de IBM). Fujitsu sigue haciendo discos portátiles y discos de servidores, pero dejó de hacer discos para ordenadores de escritorio en 2001, y el resto lo vendió a Western Digital. Toshiba es uno de los principales fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un pequeño fabricante de discos duros.
Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera víctima en el mercado de los PC fue Computer Memories Inc.; después de un incidente con 20 MB defectuosos en discos en 1985, la reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro notable fracaso fue el de MiniScribe, quien quebró en 1990: después se descubrió que tenía en marcha un fraude e inflaba el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997, y JTS, un recién llegado a escena, duró sólo unos años y desapareció hacia 1999, aunque después intentó fabricar discos duros en India. Su vuelta a la fama se debió a la creación de un nuevo formato de tamaño de 3” para portátiles. Quantum e Integral también investigaron el formato de 3”, pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3,5“.
  • 1988: Tandon vendió su división de fabricación de discos duros a Western Digital, que era un renombrado diseñador de controladores.
  • 1989: Seagate compró el negocio de discos de alta calidad de Control Data, como parte del abandono de Control Data en la creación de hardware.
  • 1990: Maxtor compró MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama baja.
  • 1994: Quantum compró la división de almacenamiento de Digital Equipment otorgando al usuario una gama de discos de alta calidad llamada ProDrive, igual que la gama tape drive de Digital Linear Tape
  • 1995: Conner Peripherals, que fue fundada por uno de los cofundadores de Seagate junto con personal de Miniscribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996.
  • 1996: JTS se fusionó con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
  • 2000: Quantum vendió su división de discos a Maxtor para concentrarse en las unidades de cintas y los equipos de respaldo.
  • 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP, pioneer IBM vendió la mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies, Hitachi GST.
  • 2003: Western Digital compró Read-Rite Corp., quien producía los cabezales utilizados en los discos duros, por 95,4 millones de dólares en metálico.
  • 2005: Seatage y Maxtor anuncian un acuerdo bajo el que Seatage adquiriría todo el stock de Maxtor. Esta adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006.
  • 2007: Western Digital adquiere Komag U.S.A., un fabricante del material que recubre los platos de los discos duros.



martes, 26 de octubre de 2010

Resuelve la versión de 4×4x4 ayudado por un móvil Nokia N95.

Inmotica

La inmótica, el control de grandes instalaciones y complejos es lo que diferencia a Inmotiza. Es el campo predilecto por los ingenieros de la compañía y es donde destaca nuestro gran valor añadido.

En la actualidad, la mayor parte de los sistemas eléctricos o electrónicos instalados en edificios terciarios adolecen un problema fundamental: su ineficacia. El primer y más evidente resultado de esta ineficiencia es el gasto innecesario y excesivo de todo tipo de recursos-energéticos, hídricos, etc.-, incidiendo no sólo de forma económica sino también medioambiental. Esta falta de control y gestión genera también problemas de otra índole como incomodidades, incapacidades para atender desviaciones energéticas, derroche de energía y posiblemente falta de condiciones óptimas para atender situaciones de emergencia.

La gestión técnica de las instalaciones cobra aún más sentido ya que eventos detectados en diferentes zonas pueden requerir de la toma de medidas y/o acciones sobre la propia instalación al instante para permanecer funcionando correctamente de forma transparente al usuario.

Por ello la gestión técnica de este tipo de instalaciones cobra una máxima relevancia tanto en la optimización de los recursos del centro como en el bienestar y la comodidad de los usuarios y sus trabajadores. El conjunto de nodos de control y de equipos necesarios para realizar esta gestión, la Inmótica, es área destacada de Inmotiza. Como expertos en esta materia, de ahí nuestra denominación, presentamos algunas aplicaciones de estos sistemas.

Las ventajas de un sistema de control en edificios y grandes instalaciones son muy numerosas. Las más destacables son:
  • Ahorro energético de hasta un 40%.

  • Ahorro en servicios de mantenimiento

  • Gestión eficaz de los parámetro principales del edificio

  • Gestión del personal del edificio

  • Supervisión en tiempo real de eventos

  • Gestión de históricos y tiempos de funcionamiento

  • Aviso de averías

  • Avisos de mantenimiento preventivo

  • Alarmas técnicas

  • Telegestión remota

  • Supervisión de consumo eléctrico

  • Mejora de la eficiencia del trabajador o del edificio.

  • Aumento del confort de los usuarios y estética.

  • Detección y gestión eficaz de la seguridad en el complejo

  • lunes, 25 de octubre de 2010

    Domótica

    Domótica = Integración de tecnología en el hogar

    Definición
    Por Domótica entendemos la incorporación al equipamiento de nuestras viviendas y edificios de una sencilla tecnología que permita gestionar de forma energéticamente eficiente, segura y confortable para el usuario, los distintos aparatos e instalaciones domésticas tradicionales que conforman una vivienda ( la calefacción, la lavadora, la iluminación...).
    La Domótica busca el aprovechamiento al máximo de la energía y luz solar adecuando su comportamiento a nuestras necesidades.

    Beneficios
    Los beneficios que aporta la Domótica son múltiples, y en general cada día surgen nuevos. Por ello creemos conveniente agruparlos en los siguientes apartados:
    a) El ahorro energético gracias a una gestión tarifaria e "inteligente" de los sistemas y consumos.
    b) La potenciación y enriquecimiento de la propia red de comunicaciones.
    c) La más contundente seguridad personal y patrimonial.
    d) La teleasistencia.
    e) La gestión remota (v.gr. vía teléfono, radio, internet, etc.) de instalaciones y equipos domésticos.
    f) Como consecuencia de todos los anteriores apartados se consigue un nivel de confort muy superior. Nuestra calidad de vida aumenta considerablemente. 

    Aplicaciones de la Domótica
    Las posibles aplicaciones son innumerables dadas las posibilidades de la Domótica y las posibles necesidades de los propios usuarios, por ello trataremos de agruparlas en algunas comunes. Son:
    En el ámbito del ahorro energético.
    a) Programación y zonificación de la climatización.
    b) Racionalización de cargas eléctricas: desconexión de equipos de uso no prioritario en función del consumo eléctrico en un momento dado. Reduce la potencia contratada.
    c) Gestión de tarifas, derivando el funcionamiento de algunos aparatos a horas de tarifa reducida.
    En el ámbito del nivel de confort.
    a) Apagado general de todas las luces de la vivienda.
    b) Automatización del apagado/ encendido en cada punto de luz.
    c) Regulación de la iluminación según el nivel de luminosidad ambiente.
    d) Automatización de todos los distintos sistemas/ instalaciones / equipos dotándolos de control eficiente y de fácil manejo.
    e) Integración del portero al teléfono, o del videoportero al televisor.
    En el ámbito de la protección personal y patrimonial.
    a) Detección de un posible intruso.
    b) Simulación de presencia.
    c) Detección de conatos de incendio, fugas de gas, escapes de agua.
    d) Alerta médica. Teleasistencia.
    e) Cerramiento de persianas puntual y seguro.
    En el ámbito de las comunicaciones.
    a) control remoto.
    b) Transmisión de alarmas.
    c) Intercomunicaciones.