Actividad de afianzamiento ¿Que hay hoy? Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993. Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo "pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma considerable. El nombre designado fue Pentium, representando la quinta generación de procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes. La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con objetivos específicos. El primer Pentium: ¡60 megahertz de puro poder! El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción, que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de 1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a 3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la Constante de Brun.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Actividad de afianzamiento¿Que hay hoy?
Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993. Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo "pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma considerable. El nombre designado fue Pentium, representando la quinta generación de procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes. La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con objetivos específicos.
El primer Pentium: ¡60 megahertz de puro poder!
El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción, que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de 1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a 3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el profesor Thomas Nicely del Lynchburg Collage, mientras trabajaba con el procesador sobre la Constante de Brun.
El bug FDIV estuvo presente en una cantidad significativa de procesadores, pero fue la actitud de Intel la que hizo más daño
Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para socket 2, 3, 4, 5, 7 y 8.
Ninguna de las versiones OverDrive fue muy popular
En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200 megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.
Intel elevó la apuesta con las nuevas instrucciones MMX
El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente como integrante de la sexta generación de procesadores, también llamado P6, o i686, un término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits. Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits, su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2.
El Pentium Pro fue un adelantado a su época en varios aspectos
A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III, Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1. También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los consumidores, mucho más de lo que jamás fuera el Pentium Pro. Su primera versión fue conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de 233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2 demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron esto.
El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros
Los Pentium III estuvieron claramente definidos en tres sub.-generaciones. La primera fue Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600 megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133 megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo como ordenador.
El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin
Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423), y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill. Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del 478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la micro arquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes 3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más simples, en varios sentidos.
El socket 423 fue abandonado en un tiempo bastante breve
Aún es posible encontrar ordenadores con un Pentium 4 como este en su interior
El último y más moderno de la estirpe: Pentium G6950
La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros: Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia, representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol mucho más humilde, identificando procesadores con lo que hoy consideramos como "capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156 y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre Pentium, probablemente Intel no estaría donde se encuentra ahora.
Intel Core Duo es un microprocesador de sexta generación lanzado en enero del 2006 por Intel, posterior al Pentium D y antecesor al Core 2 Dúo. Dispone de dos núcleos de ejecución lo cual hace de este procesador especial para las aplicaciones de subprocesos múltiples y para multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que permite descargar música o analizar el PC con un antivirus en segundo plano, por ejemplo.
Este microprocesador implementa 2 MB de caché compartida para ambos núcleos más un bus frontal de 667 ó 553 MHz; además implementa el juego de instrucciones SSE3 y mejoras en las unidades de ejecución de SSE y SSE2. Sin embargo, el desempeño con enteros es ligeramente inferior debido a su caché con mayor latencia, además no es compatible con EM64T por lo que solo trabaja a 32 bits.
Intel Core Duo fue el primer microprocesador de Intel usado en las computadoras Apple Macintosh.
Existe también una versión con sólo un nucleo denominada Core Solo.
Historia y evolución de las memorias
Un dispositivo de almacenamiento es cualquier instrumento computacional que es capaz de almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como método más común, pero actualmente es posible almacenar digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente.
Microchip También conocido como circuito integrado. Se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.
Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistencia o capacitores. Su área puede ser de 1cm2 o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc.
El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio.
El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips.
El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM.
Memoria RAM (Random Access Memory)
La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad.
La memoria RAM es el componente de almacenamiento más importante de un computador actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128... hasta los Pentium 4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1 gigabyte o más.
Disco duro
Es el medio de almacenamiento por excelencia. Desde que en 1.955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros
se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de manejo más complejo (Ej.: CEL<editar esto!). El disco duro es el componente que se encarga de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como memoria "de apoyo" (como variable que almacena y pierde información según se van procesando datos), el disco duro almacena permanentemente la información que le metemos, hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema operativo en el disco duro, podemos usar todos los programas que queramos que hayan instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas, vídeos, ficheros, etc.
Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo ampliando su capacidad
El disco duro esta compuesto básicamente de:- Varios discos de metal magnetizado, que es donde se guardan los datos.- Un motor que hace girar los discos.- Un conjunto de cabezales, que son los que leen la información guardada en los discos.- Un electroimán que mueve los cabezales.- Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché.- Una caja hermética (aunque no al vacío), que protege el conjunto.
Normalmente usan un sistema de grabación magnética analógica.
El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales).
Actualmente el tamaño estándar es de 3.5' de ancho para los HDD de PCS y de 2.5' para los discos de ordenadores portátiles.
Dispositivos portátiles
Además de los dispositivos fijos que existen como componentes en una computadora, hay otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son realmente útiles para transportar información entre dos o más computadoras.
Disquete
También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada de plástico, en cuyo interior se encuentra el disco. Es un disco circular flexible y magnético, bastante frágil. Los disquetes se introducen en el computador mediante la disquetera.
En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en algunos casos se necesitaban varios disquetes para completar una instalación.
El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y presentaciones.
CD-ROM
Es un disco compacto (del inglés: Compact Disc - Read Only Memory). Se trata de un disco compacto (no flexible como los disquetes) óptico utilizado para almacenar información no volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory). Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados.
De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para almacenar otro tipo de datos.
Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también se usan para transportar datos normalmente como los CD normales.
La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales, pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta perforada es claramente visible sus agujeros, en un CD también se incluyen micro perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y unos).
DVD
El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeño y parecía que un CD era algo demasiado "grande", algo ha cambiado, pues todas las aplicaciones, ya sean programas, sistemas operativos o videojuegos, ocupan mucha más memoria. De los tradicionales 700 MB de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de DVDs aparecieron para formato vídeo, para sustituir a los clásicos VHS. Las ventajas de los DVD eran claras, a más capacidad, mejor calidad se puede almacenar. Y mejor se conservan los datos, ya que las cintas magnéticas de los videocasetes eran fácilmente desgastables. Un DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90.
Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar seis CD.
También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17 GB. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero seguramente algún día sustituirán a los actuales CD.
Memoria USB
La memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan prácitamente igual que un disquete, pero con una capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por
una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que los disquetes.
Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por ejemplo, y lo más importante, con el sistema operativo Windows XP, sólo hay que conectarlo al computador y usarlo sin más complicaciones. Además existen otros aparatos como los reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser visualizados.
HISTORIA Y EVOLUCION DE LAS IMPRESORAS
La impresora es un periférico que le permite realizar una impresión (en papel) de datos electrónicos.
Existen varias tecnologías de impresoras, siendo las más comunes:
• la impresora margarita
• la impresora matriz de punto (también llamada impresora matriz de impacto).
• la impresora de inyección de tinta y la impresora Bubble Jet</a>
• la impresora láser
Actualmente, las impresoras margarita y las de matriz ya casi no se utilizan.
Características
La impresora generalmente se caracteriza por los siguientes elementos:
Velocidad de impresión: expresada en páginas por minuto (ppm), la velocidad de impresión representa la capacidad de la impresora para imprimir un gran número de páginas por minuto. Para impresoras a color, generalmente se realiza la distinción entre la velocidad de impresión monocromática y a color.
Resolución: expresada en puntos por pulgada (abreviado dpi), resolución significa la nitidez del texto impreso. A veces, la resolución resulta diferente para una impresión monocromática, a color o de foto.
Tiempo de calentamiento: el tiempo de espera necesario antes de realizar la primera impresión. Efectivamente, una impresora no puede imprimir cuando está "fría". Debe alcanzar una cierta temperatura para que funcione en forma óptima.
Memoria integrada: la cantidad de memoria que le permite a la impresora almacenar trabajos de impresión. Cuanto más grande sea la memoria, más larga podrá ser la cola de la impresora.
Formato de papel: según su tamaño, las impresoras pueden aceptar documentos de diferentes tamaños, por lo general aquellos en formato A4 (21 x 29,7 cm.), y con menos frecuencia, A3 (29,7 x 42 cm.). Algunas impresoras permiten imprimir en diferentes tipos de medio, tales como CD o DVD.
Carga de papel: el método para cargar papel en la impresora y que se caracteriza por el modo en que se almacena el papel en blanco. La carga de papel suele variar según el lugar donde se ubique la impresora (se aconseja la carga posterior para impresoras que estarán contra una pared).* Los principales modos de carga de papel son:
La bandeja de alimentación, que utiliza una fuente interna de alimentación de papel. Su capacidad es igual a la cantidad máxima de hojas de papel que la bandeja puede contener.
El alimentador de papel es un método de alimentación manual que permite insertar hojas de papel en pequeñas cantidades (aproximadamente 100). El alimentador de papel en la parte posterior de la impresora puede ser horizontal o vertical.
Cartuchos: los cartuchos raramente son estándar y dependen en gran medida de la marca y del modelo de la impresora. Algunos fabricantes prefieren los cartuchos de colores múltiples mientras que otros ofrecen cartuchos de tinta separados. Los cartuchos de tinta separados son más económicos porque a menudo se utiliza un color más que otro.
Resulta interesante examinar el costo de impresión por hoja. El tamaño de gota de tinta es especialmente importante. Cuanto más pequeña sea la gota de tinta, más bajo será el costo de impresión y mejor la calidad de la imagen. Algunas impresoras pueden producir gotas que son de 1 ó 2 picolitros.
Interfaz: cómo se conecta la impresora al equipo. Las principales interfaces son:
USB
Paralelo
Red: este tipo de interfaz permite que varios equipos compartan una misma impresora. También existen impresoras WiFi disponibles a través de una red inalámbrica.
Impresora margarita
Las impresoras margarita se basan en el principio de las máquinas de escribir. Una matriz en forma de margarita contiene "pétalos" y cada uno de éstos posee un carácter en relieve. Para imprimir el texto, se ubica una cinta impregnado de tinta entre la margarita y la hoja de papel. Cuando la matriz golpea la cinta, ésta deposita tinta sobre el papel con la forma del carácter en el pétalo.
Estas impresoras se han vuelto obsoletas porque son extremadamente ruidosas y lentas.
Impresora matriz de punto
La impresora matriz de punto (llamada algunas veces impresora de matriz o impresora de impacto) permite la impresión de documentos sobre papel gracias al movimiento "hacia atrás y hacia adelante" de un carro que contiene un cabezal de impresión.
El cabezal se compone de pequeñas agujas metálicas, accionadas por electroimanes, que golpean una cinta de carbón llamada "cinta entintada", ubicada entre el cabezal y el papel.
La cinta de carbón se desenrolla para que siempre haya tinta sobre ella. Al finalizar cada línea, un rodillo permite que la hoja avance.
Las impresoras matriz de punto más recientes está equipadas con cabezales de 24 agujas, que permiten imprimir con una resolución de 216 dpi (puntos por pulgada).
Impresora a chorro de tinta y Bubble Jet
La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa en el principio de que un fluido caliente produce burbujas.
El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la tinta saliera despedida de la jeringa.
Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256), equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias veces por segundo.
Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El vacío causado por la disminución de la presión crea a su vez una nueva burbuja.
Generalmente, se efectúa una distinción entre las dos tecnologías diferentes:
• Las impresoras a chorro de tinta utilizan inyectores que poseen su propio elemento de calentamiento incorporado. En este caso se utiliza tecnología térmica.
• Las impresoras Bubble Jet utilizan inyectores que tienen tecnología piezoeléctrica. Cada inyector trabaja con un cristal piezoeléctrico que se deforma al ser estimulado por su frecuencia de resonancia y termina eyectando una burbuja de tinta.
Impresora láser
La impresora láser permite obtener impresiones de calidad a bajo costo y a una velocidad de impresión relativamente alta. Sin embargo, estas impresoras suelen utilizarse mayormente en ambientes profesionales y semiprofesionales ya que su costo resulta elevado.
Las impresoras láser utilizan una tecnología similar a la de las fotocopiadoras. Una impresora láser está compuesta principalmente por un tambor fotosensible con carga electrostática mediante la cual atrae la tinta para hacer una forma que se depositará luego en la hoja de papel.
Cómo funciona: un rodillo de carga principal carga positivamente las hojas. El láser carga positivamente ciertos puntos del tambor gracias a un espejo giratorio. Luego se deposita la
tinta con carga negativa en forma de polvo (tóner) en las distintas partes del tambor que el láser cargó previamente.
Al girar, el tambor deposita la tinta sobre el papel. Un alambre calentado (llamado corona de transferencia) permite finalmente la adhesión de la tinta en el papel.
Dado que la impresora láser no tiene cabezales mecánicos, resulta rápida y silenciosa.
Existen dos tipos diferentes de tecnología de impresora láser: "carrusel" (cuatro pasadas) o "tándem" (una pasada).
Carrusel: con la tecnología de carrusel, la impresora efectúa cuatro pasadas sobre el papel para imprimir un documento (una por cada color primario y una para el negro, lo que en teoría hace que la impresión a color sea cuatro veces más lenta que en negro).
Tándem: una impresora láser que utiliza tecnología "tándem" deposita cada color en una sola pasada. Los tóners se depositan simultáneamente. La salida es igual de rápida cuando se imprime a color como cuando se imprime en negro. Sin embargo, esta tecnología resulta más costosa ya que los mecanismos son más complejos. Por lo tanto, se suele utilizar en impresoras láser a color de mediana o alta calidad.
Impresora LED
Otra tecnología de impresión compite con las impresoras láser: la tecnología LED (diodo emisor de luz). Con esta tecnología, un cabezal de impresión con diodos electroluminiscentes polariza el tambor con un rayo de luz muy fino, permitiendo la obtención de puntos muy diminutos. Esta tecnología es particularmente útil para obtener una alta resolución (600, 1.200 ó 2.400 dpi).
Teniendo en cuenta que cada diodo representa un punto, la velocidad de impresión termina afectando mínimamente la resolución. Además, esta tecnología carece de piezas móviles, lo que permite el diseño de impresoras menos costosas, más sólidas y más fiables.
Lenguaje de comandos de la impresora
El lenguaje de descripción de páginas es el lenguaje estándar que utilizan los equipos para comunicarse con las impresoras. En efecto, una impresora debe poder interpretar la información que un equipo le está enviando.
Los dos lenguajes de descripción de página principales son:
Lenguaje de comandos de la impresora (PCL): un lenguaje conformado por secuencias binarias. Los caracteres se transmiten según su código ASCII.
Lenguaje PostScript: este lenguaje, utilizado inicialmente por Apple LaserWriters, se ha convertido en el estándar de los lenguajes de descripción de páginas. Es un lenguaje en sí mismo que se basa en un conjunto de instrucciones
Un teclado es un periférico o dispositivo que permite ingresar información, tiene entre 99 y 108 teclas aproximadamente, esta dividido en 4 bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que este abierto. Ej. al presionar la tecla F1 permite en los programas de Microsoft acceder a la ayuda.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, Repag, Avpag y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa cuando al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitacion de cifras, además contiene los signos de las cuatro operaciones básicas como suma +, resta -, multiplicación * y division /, también contiene una tecla de Intro o enter para ingresar las cifras.
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia[cita requerida].
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTY. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.
Teclado QWERTY de 102 teclas con distribución Inglés de Estados Unidos
Primeros teclado
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado.
Uno de los teclados más modernos, fue diseñado por una ama de casa llamada Diamea Stuart Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de dibujo que tenía. Un día cuando unos inspectores investigaban su casa en contraron estos dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple.
Generación 16 bits
Mientras que el teclado del IBM PC y la primera versión del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y estandariza de facto el teclado moderno con cuatro bloques diferenciados : un bloque alfanumérico con al menos una tecla a cada lado de la barra espaciadora para acceder a símbolos adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un teclado numérico, y entre ambos grandes bloques, las teclas de cursor y sobre ellas varias teclas de edición. Con algunas variantes este será el esquema usado por los Atari ST, los Commodore Amiga (desde el Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Sólo los Mac siguen con el esquema bloque alfanumérico + bloque numérico, pero también producen teclados extendidos AT, sobre todo para los modelos con emulación PC por hardware.
Mención especial merece la serie 55 de teclados IBM, que ganaron a pulso la fama de "indestructibles", pues tras más de 10 años de uso continuo en entornos como las aseguradoras o la administración pública seguían funcionando como el primer día. [Cita requerida]
Con la aparición del conector PS/2, varios fabricantes de equipos no PC proceden a incorporarlo en sus equipos. Microsoft, además de hacerse un hueco en la gama de calidad alta, y de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora.
Aunque los teclados USB comienzan a verse al poco de definirse el estándar USB, es con la aparición del Apple iMac, que trae tanto teclado como mouse USB de serie cuando se estandariza el soporte de este tipo de teclado. Además tiene la ventaja de hacerlo independiente del hardware al que se conecta. El estándar define scancodes de 16 bits que se transmiten por la interfaz. Del 0 al 3 son códigos de error del protocolo, llamados NoEvent, ErrorRollOver, POSTFail, ErrorUndefined, respectivamente. Del 224 al 231 se reservan para las teclas modificadoras (LCtrl, LShift, LAlt, LGUI, RCtrl, RShift, RAlt, RGUI)
Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas.Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúscula, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt.-Gr.
Teclas inertes
Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar. Esta combinación de teclas requiere que se teclee una secuencia aceptable. Por ejemplo, si se presiona la tecla inerte del acento (ej. ´) seguido de la letra A, obtendrá una "a" acentuada (á). Sin embargo, si se presiona una tecla inerte y a continuación la tecla T, no aparecerá nada en la pantalla o aparecerán los dos caracteres por separado (´t), a menos que la fuente particular para su idioma incluya la "t" acentuada.
Para teclear una marca de acento diacrítico, simplemente se presiona la tecla inerte del acento, seguida de la barra de espacio.
Tipos de teclado [editar]
Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.
El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.
Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.
En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.
Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.
Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado físico.
Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.
Estructura
Un teclado realiza sus funciones mediante un microcontrolador. Estos microcontroladores tienen un programa instalado para su funcionamiento, estos mismos programas son ejecutados y realizan la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas.
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su carácter serigrafiado en la misma sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física.El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra eñe y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos.Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII.
Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de labios y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal.
En los teclados AT los códigos generados son diferentes, por lo que por razones de compatibilidad es necesario traducirlos. De esta función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC. Este controlador recibe el Código de Búsqueda del Teclado (Kscan Code) y genera el propiamente dicho Código de Búsqueda. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el servidor puede enviarle comandos al teclado para configurarlo, reiniciarlo, diagnósticos, etc.
Disposición del teclado
La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, por ejemplo el Teclado Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control.
Existen programas como Microsoft Keyboard Layout Creator1 y KbdEdit,2 que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido3 o el gaélico4 ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,5 o el panibérico6 ).
A primera vista en un teclado podemos notar una división de teclas, tanto por la
diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:
Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaban organizadas alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloc num., que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. el teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).
Clasificación de teclados de computadoras
En el mercado hay una gran variedad de teclados. A la hora de estudiarlos podemos clasificarlos en dos grupos:
Según su forma física:
Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 83 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor número de teclas.
Teclado Windows de 103/104 teclas: el teclado anterior con 3 teclas adicionales para uso en Windows.
Teclado ergonómico: diseñados para dar una mayor comodidad para el usuario, ayudándole a tener una posición más relajada de los brazos.
Teclado multimedia: añade teclas especiales que llaman a algunos programas en el computador, a modo de acceso directo, como pueden ser el programa de correo electrónico, la calculadora, el reproductor multimedia…
Teclado inalámbrico: suelen ser teclados comunes donde la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante bluetooth.
Teclado flexible: Estos teclados son de plástico suave o silicona que se puede doblar sobre sí mismo. Durante su uso, estos teclados pueden adaptarse a superficies irregulares, y son más resistentes a los líquidos que los teclados estándar. Estos también pueden ser conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser completamente sumergidos en agua, por lo que hospitales y laboratorios los usan, ya que pueden ser desinfectados.7
Según la tecnología de sus teclas se pueden clasificar como teclados de cúpula de goma, teclados de membrana: teclados capacitativos y teclados de contacto metálico.
Según los estándares de monitores se pueden clasificar en varias
categorías. Todos han ido evolucionando con el objetivo de ofrecer
mayores prestaciones, definiciones y mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el
año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los
monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color
principalmente verde. El mismo creaba irritación en los ojos de sus
usuarios.
Características:
Sin modo gráfico.
Resolución 720_350 píxeles.
Soporte de texto monocromático.
No soporta gráfico ni colores.
La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA porsus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficosen Color” en español. Este tipo de monitores fueron comercializados apartir del año 1981, cuando se desarrollo la primera tarjeta gráficaconjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PCseguían optando por los monitores MDA, ambos fueron lanzados al mercadoen el mismo año existiendo competencia entre ellos. CGA fue el primeroen contener sistema gráfico a color.Características:
• Diseñado principalmente para juegos de computadoras.
• La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por
sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar
desarrollado IBM para la visualización de gráficos, creado en 1984.
Este nuevo monitor incorporaba una mayor amplitud de colores y
resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido
por un monitor de mayores características.
Características:
• Resolución de 640_350 píxeles.
• Soporte para 16 colores.
• La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los
monitores VGA por sus siglas en inglés “Video Graphics Array”, fue
lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA,
los monitores anteriores empezaban a quedar obsoletos. El VGA
incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las
tarjetas gráficas, los monitores anteriores no son compatibles a los
VGA, estos incorporan señales analógicas.
Características:
Soporte de 720×400 píxeles en modo texto.
Soporte de 640×480 píxeles en modo gráfico con 16 colores.
Soporte de 320×200 píxeles en modo gráfico con 256 colores.
Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA
denominado por sus siglas en inglés “Super Video Graphics Array”,
también conocidos por “Súper VGA”. Estos tipos de monitores y
estándares fueron desarrollados para eliminar incompatibilidades y
crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones
que el VGA. Este estándar cuenta con varias versiones, los cuales
soportan diferentes resoluciones.
Características:
Resolución de 800×600, 1024_768 píxeles y superiores.
Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI,
GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar
en varios aspectos. Estas evoluciones de la tecnología han sido
llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar
un nuevo producto en el mercado.
Monitores CRT:
Está
basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es
el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros.
Para lograr la calidad que hoy cuentan, estos pasaron por diferentes
modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo
largo de la pantalla, una línea por vez. La amplitud de dicha señal en
el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca
en ese instante no tendrá representando un píxel negro. Una amplitud
máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
Excelente calidad de imagen (definición, contraste, luminosidad).
Económico.
Tecnología robusta.
Resolución de alta calidad.
Desventajas:
Presenta parpadeo por el refrescado de imagen.
Consumo de energía.
Generación de calor.
Generación de radiaciones eléctricas y magnéticas.
Alto peso y tamaño.
Pantallas LCD:
A
este tipo de tecnología se le conoce por el nombre de pantalla o
display LCD, sus siglas en inglés significan “Liquid Crystal Display” o
“Pantalla de Cristal Líquido” en español. Este dispositivo fue
inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las
propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias
tiene necesariamente que seguir el espacio vacío que hay entre sus
moléculas como lo haría atravesar un cristal sólido pero a cada una de
estas partículas se le puede aplicar una corriente eléctrica que cambie
su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados
perpendicularmente de manera que al aplicar una corriente eléctrica
deja pasar o no la luz. Para conseguir el color es necesario aplicar
tres filtros más para cada uno de los colores básicos rojo, verde y
azul.
Para la reproducción de varias tonalidades de color se deben aplicar
diferentes niveles de brillo intermedios entre luz y no luz lo cual se
consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
Poco peso y tamaño.
Buena calidad de colores.
No contiene parpadeo.
Poco consume de energía.
Poca generación de calor.
No genera radiaciones eléctricas y magnéticas.
Desventajas:
• Alto costo.
• Angulo limitado de visibilidad.
• Brillo limitado.
• Bajo tiempo de respuesta de píxeles.
• Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por
Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber
logró crear la pantalla de plasma de color. Este tipo de pantalla entre
sus principales ventajas se encuentran una la mayor resolución y ángulo
de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en
iluminar pequeñas luces fluorescentes de colores para conformar una
imagen. Las pantallas de plasma funcionan como las lámparas
fluorescentes, en que cada píxel es semejante a un pequeño foco
coloreado.
Cada uno de los píxeles que integran la pantalla está formado por
una pequeña celda estanca que contiene un gas inerte (generalmente neón
o xenón). Al aplicar una diferencia de potencial entre los electrodos
de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y
excita el material fosforescente que recubre el interior de la celda.
Cuando el material fosforescente regresa a su estado energético
natural, emite luz visible.
Ventajas:
• Excelente brillo.
• Alta resolución.
• Amplio ángulo de visión.
• No contiene mercurio.
• Tamaño de pantalla elevado.
Desventajas:
• Vida útil corta.
• Coste de fabricación elevado, superior a los LCD.
• Consumo de electricidad elevado.
• Poca pureza del color.
• Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que
puede ser mostrada en la pantalla. Viene dada por el producto de las
columnas (”X”), el cual se coloca al principio y el número de filas
(”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente con las tarjetas de
vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad
de colores, ha llevado día a día a su desarrollo.
Ratón
Ratón con cable y rueda.
Ratón para videojugadores.
El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
El nombre
La forma del dispositivo originó su nombre.
Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón.
En América predomina el término inglés mouse mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el anglicismo es innecesario.1 El DRAE únicamente acepta la entrada ratón para este dispositivo informático, pero indica que es un españolismo.2
Hoy en día
Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una «rueda», más otros botones secundarios o de distintas tecnologías como sensores del movimiento que pueden mejorar o hacer más cómodo su uso.
Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones.
En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy en día, pueden compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus gustos o tareas.
Historia
Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.
La primera maqueta
Copia del primer prototipo.
La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System".
A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior.
Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación.
Presentación
¿Cómo se captura el movimiento de un ratón mecánico estándar?1: Al arrastrarlo sobre la superficie gira la bola,2: ésta a su vez mueve los rodillos ortogonales,3: éstos están unidos a unos discos de codificación óptica, opacos pero perforados,4: dependiendo de su posición pueden dejar pasar o interrumpir señales infrarrojas de un diodo LED.5: Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de la velocidad vertical y horizontal actual para trasmitirse finalmente al ordenador.
En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica totalidad de sistemas operativos modernos. En ese momento además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia.
Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford.
Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy en día han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de unos 10000 dólares.
El éxito de Apple
El 27 de abril de 1981 se lanzaba al mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, que fue a su vez, otra revolución. Posteriormente, surgieron otras computadoras que también incluyeron el periférico, algunas de ellas fueron la Commodore Amiga, el Atari ST, y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible además con las primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un sistema operativo que realmente lo aprovechara, hizo que pasara completamente desapercibido.
No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su diseño y creación corrió a cargo de nuevo de la Universidad de Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en serie. Partían de un ratón basado en tecnología de Xerox de un coste alrededor de los 400 dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs, quería un precio entre los 10 y los 35 dólares.
Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito han sido el uso de una rueda central o lateral, el sensor de movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un láser no visible del fabricante Logitech.
En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa a través de terceras empresas como IBM, Hewlett-Packard, Compaq o Apple.
Funcionamiento
Imagen habitual de un puntero movido por la pantalla usando un ratón.
Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir
esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas.
Con el avance de los nuevos ordenadores, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comunmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.
Tipos o modelos
Por mecanismo
Mecánicos
Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una bola.
La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta.
Parte inferior de un ratón con cable y sensor óptico.
Ópticos
Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta.
Láser
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad.
El concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima.
Por conexión
Por cable
Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie.
Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y el ordenador es óptima en juegos que requieren de una gran precisión.
Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal.
Inalámbrico
En este caso el dispositivo carece de un cable que lo comunique con el ordenador o computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta al ordenador a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades:
• Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos
inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
• Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado.
• Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth).
El controlador
Es, desde hace un tiempo, común en cualquier equipo informático, de tal manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios.
Modelo Mighty Mouse de Apple.
Uno, dos o tres botones
Hasta mediados de 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un ratón de un sólo botón, pensado para facilitar y simplificar al usuario las distintas tareas posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con sensores debajo de la cubierta plástica, dos botones laterales programables, y una bola para mover el puntero, llamado Mighty Mouse.
Modelo inalámbrico con cuatro botones.
En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal manera que además de poder girarse, puede pulsarse.
Hoy en día cualquier sistema operativo moderno puede hacer uso de hasta estos tres botones distintos e incluso reconocer más botones extra a los que el software reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto.
La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech, lanzado en septiembre de 2005. Preparado anatómicamente para diestros, dispone de hasta 10 botones.
Problemas frecuentes
• Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de la acumulación de suciedad, frenando o dificultando el movimiento del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el interior del ratón es recomendable usar una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales motivos de su éxito.
• Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más clics consecutivos, de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el pulsador electrónico. Para solucionarlo normalmente debe desmontarse completamente y colocar varias capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil.
• Dolores musculares causados por el uso del ratón: Si el uso de la computadora es frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición totalmente plana que adopta la mano, que puede resultar forzada, o puede también producirse un fuerte desgaste del huesecillo que sobresale de la muñeca, hasta el punto de considerarse una enfermedad profesional. Existen alfombrillas especialmente diseñadas para mejorar la comodidad al usar el ratón.
¿Qué PROYECCION Y QUE ESPECTATIVAS OFRECE EL FUTURO?
INTRODUCCIÓN
En las últimas décadas del siglo XX asistimos a un conjunto de transformaciones económicas-
sociales y culturales cuya vertiginosidad y complejidad no admite precedente y nuestro país
no se encuentra ajeno a ello. Caen rápidamente todo tipo de muros y barreras entre las
naciones al mismo tiempo que se amplía la brecha en el nivel de desarrollo humano al que
acceden los distintos pueblos.
El mundo de hoy, esta inmerso en una nueva revolución tecnológica basada en la informática,
que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de
información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que
culturas y sociedadesse transformen aceleradamente tanto económica, como social y
políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades.
El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de
las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha
influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI.
Esta última centuria ha sido extraordinariamente rica en avances técnicos y científicos, ha
visto el crecimiento pleno de otras tecnologías decisivas, como la electricidad y la electrónica,
los medios audiovisuales – en particular la televisión– y ha culminado con la implantación de
estas nuevas tecnologías (que ya no son tan nuevas), que han revolucionado el uso y la
manipulación de la información y se han constituido, a la vez, en vehículos de comunicación.
El desarrollo de las tecnologías está teniendo una gran influencia en el ámbito educativo, ya
que constituyen una nueva herramienta de trabajo que da acceso a una gran cantidad de
información y que acerca y agiliza la labor de personas e instituciones distantes entre si.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones.
Es por ello que intentaremos a través del presente trabajo plasmar un análisis integral de un
tema en particular: LA COMPUTADORA COMO MEDIO EDUCATIVO Y SUSU PELIGROS EN LA
FORMACIÓN DEL EDUCANDO, para lo cual tendremos que apoyarnos en investigaciones y
conjeturas propias, tratando de mantener una visión de la realidad como un todo. Para ello
hemos estructurado nuestra investigación en tres capítulos:
Primer Capítulo : "La Computadora y la Sociedad" , en el cual se describe a la computadora
como factor para el aprendizaje y desarrollo de los pueblos y su influencia en el ámbito
laboral, así como sus efectos en la sociedad en general, desde sus origenes hasta nuestros
días.
Segundo Capítulo: "La Computadora como Medio Educativo", a través del cual intentamos
establecer la relación de la computadora con la educación de la persona y la labor del
docente, para lograr la interacción en el aula y el desarrollo de la escuela. Así mismo se podrá
observar loas distintas formas o modelos de uso de la computadora en el la enseñanza
aprendizaje, entre otros.
Tercer Capítulo : " Peligros de la Computadora para la Formación del Educando", en este
plano se intenta clarificar de cómo el ordenador como medio para la enseñanza aprendizaje,
es ventajoso; pero al mismo tiempo de cómo puede convertirse en una amenaza que atente
contra la salud del educando y de su capacidad cognitiva; por otro lado de cómo se puede
convertir en un peligro para el docente desde el punto de vista laboral, al sentirse desplazado
por su vertiginoso empleo y gran capacidad de almacenamiento de datos.
Cuando se habla del uso de las computadoras en la educación se argumenta y es inevitable
discutir sobre sus ventajas, inconvenientes y usos apropiados estas son discusiones técnicas
y pedagógicas, pero detrás de ellas hay algo más que argumentaciones racionales, detrás de
ellas hay también emociones. A mediados de la década del 1970 las computadoras eran
usadas por pocas personas, pero ya en la actualidad han tenido un mayor impacto en la
sociedad que cualquier otro invento. Esta acogida se debe a sus características, las mismas
que son aprovechadas en los diferentes ámbitos laborales, en particular el educativo, por ello
vemos que las escuelas o instituciones educativas de hoy en día cada vez más apuestan por
implementar un centro de cómputo dentro de su infraestructura y así mantenerse acorde con
los adelantos de la informática y alcanzar el anhelado sueño de mejorar la enseñanza
aprendizaje a través de un mejor medio para concretar tal fin: La computadora
Esperamos que el presente trabajo de investigación colme las expectativas del docente así
mismo de que contribuya en el quehacer educativo de los estudiantes y la tarea por alcanzar
nuevos conocimientos, solo así diremos ¡Tarea cumplida¡
LOS ESTUDIANTES
OBJETIVOS
• Identificar los efectos educativos, culturales y laborales de la computadora dentro de
la sociedad.• Analizar el uso de la computadora como medio didáctico en el ambiente escolarizado
y el uso de nueva metodología para el proceso enseñanza-aprendizaje.• Reconocer los peligros del uso de la computadora para la formación del educando y
para su salud. • Determinar las ventajas y desventajas de la computadora como medio didáctico en el
Internet potenciará inteligencia, pero degradará la privacidad
Internet siempre a la mano evita tener que recordar mucha información
‘Inteligente’ será quien sepa buscar y relacionar gran cantidad de datos
El uso intensivo de Internet en la búsqueda de información para la vida cotidiana cambiará por completo lo que entendemos por inteligencia durante la próxima década, potenciando nuestro cerebro, pero también degradará nuestra privacidad.
Así lo señala el informe El futuro de Internet, publicado recientemente por el Pew Research
Center de Estados Unidos.
La exposición permanente a gran cantidad de información y la interacción con buscadores que
cada vez entienden mejor lo que necesitamos, hará superfluo manejar gran cantidad de datos
en la memoria humana y más bien obligará a las personas a desarrollar sus capacidades para
relacionar, rápidamente, distintas fuentes de conocimiento, se explica en el estudio.
Las conclusiones de El futuro de Internet están basadas en una encuesta y entrevistas
realizadas a 371 expertos y 524 usuarios intensivos de Internet sobre cómo imaginan
Internet en el 2020.
El 50% de los consultados ha estado utilizando Internet al menos desde el año 1992.
Nueva inteligencia. El 81% de los expertos y el 76% de los usuarios encuestados se
declararon a favor de la idea de que Internet provocará una mejora significativa de la
importante para los usuarios y para el desarrollo de Internet, dejará de ser el medio de
conexión por excelencia.
"Históricamente, Internet ha sido conectividad entre computadores y personas. (...)
Internet continúa su desarrollo: nuevos dispositivos encontrarán su camino en la red y
nuevas formas de acceder a ella surgirán y evolucionarán", escribió Cerf en su artículo The
Next Internet, incluido en su blog corporativo.
La posibilidad del acceso a Internet desde muchos dispositivos -teléfonos inteligentes,
celulares de gama media, tablets, computadores de mano, netbooks, consolas de
videojuegos e incluso los celulares económicos- ayudará que se cumpla la promesa de que
sea una red para todos.
Hoy, 1.800 millones de personas, sólo el 27 por ciento de la población mundial, tienen
acceso a Internet, y se prevé que gran parte de los próximos 1.000 millones llegarán a
través de dispositivos móviles.
En Japón esto ya es una realidad, y más personas se conectan desde su teléfono que desde
un computador.
Por otra parte, los dispositivos móviles se están convirtiendo en el aliado perfecto para
quienes necesitan estar conectados permanentemente a Internet por medio de su correo,
las redes sociales o las redes corporativas.
Además, los equipos más avanzados están logrando un alto grado de 'inteligencia' gracias
a que, junto a la conexión a Internet, incorporan varios sensores capaces de detectar y
enviar datos en tiempo real, tales como la ubicación geográfica.
Otra gran ventaja que tendrá la Internet móvil es su velocidad: las conexiones 3G se
remplazarán por la cuarta generación, con tecnologías como LTE, que brindarán más
velocidad que las actuales conexiones fijas.
Un estudio del Pew Internet Project predice que "Internet móvil será dominante. Hacia el
2020, la mayoría de las redes celulares proveerán un gigabit por segundo como mínimo,
desde cualquier lugar y en cualquier momento".
Esto implica un reto para las empresas productoras de este tipo de dispositivos, que
tienden a ser cada vez más sofisticados.
Red omnipresente
En el futuro, las personas no sólo se podrán conectar a Internet desde el hogar, las
empresas, las oficinas, los cafés Internet, algunos sitios públicos y los teléfonos móviles
con servicio de 3G ó 4G. Aunque hoy ya parece que Internet está en todas partes, todavía
no está al alcance del grueso de la población ni llega a todos los rincones.
Sin embargo, en el futuro las ciudades y poblaciones enteras tendrán Internet en el aire,
por medio de redes con tecnologías Wi-Fi y WiMax, y sus ciudadanos podrán conectarse
desde cualquier lugar, gratuitamente o con costos cada vez más razonables para sus
usuarios.
Y no sólo los computadores y los dispositivos móviles aprovecharán la omnipresencia de
Internet, sino también una nueva generación de aparatos, desde electrodomésticos hasta
automóviles, que podrán estar en línea constantemente.
El ejemplo clásico de la nevera que se conecta a la tienda de la esquina cuando falta la
leche o la carne, o uno más futurista del carro que por correo avisará cuando le falte la
gasolina o cuando tenga una pieza desgastada, podrían ser realidad en unos pocos años.
Navegar a toda velocidad
Actualmente, en territorios como Hong Kong, Francia y Japón la velocidad promedio para
los usuarios de banda ancha es superior a los 10 Mbps.
Otros países, como Estados Unidos, poco a poco llegan a estas velocidades, mientras que
en Latinoamérica sólo los más privilegiados cuentan con conexiones superiores a los 4
Mbps.
Sin embargo, la velocidad en Internet no sólo proviene de la rapidez de las conexiones,
sino también de la optimización de los sitios web, las aplicaciones, las tecnologías
multimedia y otros aspectos aparentemente imperceptibles pero que aceleran y mejoran la
experiencia en línea.
Estudios de Google muestran que las personas quieren sitios y aplicaciones más rápidas y
estables.
Esto implica que los buscadores estén investigando constantemente para desarrollar
nuevas tecnologías, y mejorar permanentemente las que ya tienen, para lograr que la web
sea más rápida para todos, así no se tengan conexiones de alta velocidad.
La computación en la nube será más popular
'Cloud computing', o computación en la nube, despegó en el 2008 y el año pasado creció
notablemente, con el surgimiento de numerosas aplicaciones en la nube o Web 2.0
-alojadas en Internet y accesibles desde computadores y dispositivos móviles, y creadas
para colaborar y compartir contenidos-.
En el futuro se prevé que cada vez más aplicaciones y servicios que hoy funcionan desde
los equipos se trasladen a la nube, aprovechando las ventajas en seguridad, accesibilidad y
colaboración.
Publicidad en línea está viviendo crecimiento exponencial
La publicidad en Internet evoluciona a grandes pasos y crece como la espuma en los países
más desarrollados. En Inglaterra, hace pocos meses la inversión en publicidad en línea
alcanzó el 25 por ciento del total, y desde ese momento la red superó a la televisión como
el medio predilecto de los anunciantes.
En España, Estados Unidos y otros países la tendencia va hacia allá, y ya Internet supera a
algunos medios tradicionales.
El promedio mundial de inversión de publicidad en línea, según la firma
PriceWaterhouseCoopers, es del 10 por ciento del total de la inversión publicitaria, y en el
2011 será del 21 por ciento.
¿Se trata de una moda? No, es una tendencia cada vez más fuerte apoyada en ventajas de
la publicidad en línea sobre la tradicional, tales como la posibilidad de segmentar los
anuncios, modificar las campañas publicitarias fácilmente y en tiempo real, administrar de
manera flexible los costos, pautar sin límites geográficos y, por todo lo anterior, ayudar a
los anunciantes a encontrar más fácilmente a sus clientes potenciales, incrementar sus
ventas y reducir los costos de mercadeo, publicidad y comercialización.
La publicidad contextual (que tiene que ver con el contenido de las páginas web donde se
coloca) es el formato publicitario de mayor crecimiento, gracias a su efectividad y mayor
retorno a la inversión, y a que no es intrusiva.
El porcentaje de inversión en Inglaterra (25 por ciento) tiene sentido: estudios
internacionales no solo señalan que el uso de Internet va en aumento por un mayor
número de personas, sino que los internautas pasan cada vez más horas al día en línea que
expuestos a medios tradicionales como la radio, la prensa y la televisión, por lo que los
anunciantes entienden mejor que deben estar donde se encuentran sus audiencias.
En Latinoamérica, la tendencia está despegando lentamente, y la publicidad en línea
representa un 5 por ciento del total de inversión publicitaria en la región. En Colombia, en
el 2009 creció un 30 por ciento y alcanzó una inversión de 53.000 millones de pesos, según
la organización IAB Colombia.
Adicionalmente, los formatos continúan evolucionando, y los anuncios de texto
contextuales y los banners ahora están acompañados por avisos de video, multimedia,
interactivos y gráficos contextuales.
El tiempo real ahora sí es real
Hoy, la participación de las personas en Internet es cada vez más activa: millones de ellas
comparten a diario fotografías, videos, opiniones, documentos y toda clase de contenidos.
Por ello, las búsquedas en tiempo real llegan al rescate de los usuarios cuando éstos
quieren saber qué se está diciendo en Internet en ese preciso momento, sobre algo de su
interés.
En la web se está haciendo gran parte de la vida social
La web social, también denominada 'Social Media', es tan significativa, que ha
transformado la forma como se usa Internet para la vida personal, la información y los
negocios.
Según el estudio Tribalization of Business, de Deloitte, 94 por ciento de los negocios
aumentarán sus inversiones en redes sociales, publicidad y comunidades en línea, y esto
no es gratuito.
Facebook hoy tiene más de 450 millones de usuarios, Twitter supera los 115 millones,
Google Buzz está disponible para más de 175 millones de usuarios del servicio de correo
Gmail, y en el sitio de videos YouTube se publican más de 24 horas de video por minuto y
se ven más de 100 millones de videos cada día.
Estos espacios, más una gran cantidad y variedad que está surgiendo, aún tienen un
amplio potencial de crecimiento.
portafolio.com.co
Publicado por INNGENIAR GROUP en 05:05 0 comentarios
martes 18 de mayo de 2010
Michio Kaku, físico: "Nuestros hijos tendrán Internet en sus gafas y lentes de contacto"
• Es el ponente estrella del BDigital Global Congress de Barcelona.
• Dice que podremos hacernos controles de salud desde nuestro baño.
• Cree que la regeneración de órganos en laboratorios será una realidad.
• Ha probado un coche que conduce por sí mismo, sin tocar el volante.El físico conocido como 'popularizador de la ciencia', Michio Kaku, explica que las generaciones futuras podrán acceder a Internet a través de unas lentes de contacto. De visita en Barcelona como ponente estrella del BDigital Global Congress, Kaku ha hablado de cómo será el Internet del futuro. Según él, de aquí a unos años podremos conectarnos a la red a través de pantallas gigantes que tendremos en las paredes de nuestras casas. Ha explicado también que gracias a la tecnología podremos hacernos controles de salud desde nuestro propio baño y que la regeneración de órganos será una realidad.Con el libro Visiones, en 1998 adivinó muchas cosas de cómo sería Internet hoy en día, 12 años más tarde. ¿Le han preguntado alguna vez si tiene poderes para prever el futuro?
Muchas, pero soy físico y no puedo leerlo. He entrevistado a 300 de los científicos más destacados del mundo. Cuando hablo, no hablo por mí. Soy la voz de estos científicos, que están inventando el futuro en sus laboratorios.Usted habla de lentes de contacto con acceso a la red, grandes pantallas en las paredes de nuestra casa... ¿Necesitamos toda esta tecnología en nuestro día a día?No necesariamente, pero la gente joven querrá estos inventos porque son la vanguardia de la sociedad. Querrán esta tecnología porque sus amigos la tendrán. Estos jóvenes crecerán y, en el futuro, todo esto formará parte de la normalidad. Todo el mundo tendrá Internet en sus lentes de contacto y todo el mundo podrá tener órganos nuevos creciendo dentro su cuerpo y pantallas gigantes, en las paredes de su casa. Todo esto formará parte de la realidad diaria de nuestros hijos.Adelantos como la generación de órganos nuevos para sustituir a los enfermos y unos chips, que según ha anunciado, eliminarán las células cancerígenas dentro de nuestro cuerpo son más de vida o muerte...Exacto. La vida y la muerte se decidirá en los baños de nuestras casas. Tendrán más potencia que un hospital de los de hoy en día. Aparatos que tendremos en nuestro baño, por ejemplo en un espejo, nos dirán si tenemos células cancerígenas o no muchos años antes de que se empiece a formar un tumor.También comenta que tendremos la posibilidad de conseguir crear órganos en los laboratorios. Si lo podemos arreglar todo, ¿podremos vivir eternamente?No viviremos para siempre jamás, pero viviremos más tiempo. Siempre ha habido enfermedades y siempre las habrá. Pero si alguno de nuestros órganos enferma, tendremos la posibilidad de hacer crecer uno nuevo. Además, actualmente ya se han identificado 60 genes que contribuyen al envejecimiento de la especie humana. De aquí a unos años, nuestros hijos o nuestros nietos podrán vivir muchos más años porque podremos controlar genéticamente los genes de nuestro cuerpo.¿Qué me dice de los coches que se conducirán automáticamente?Originariamente la gente pensaba que un coche que se conduce automáticamente no era factible. Entonces, llegaron los GPS que pueden localizar los coches con menos de un metro de error. Hay vehículos que hoy en día ya están capacitados para circular solos en las carreteras y autopistas, pero todavía no en las ciudades. Yo he probado uno para la BBC. Entré en el coche e iba sentado en el asiento del conductor con los brazos cruzados.Normalmente la tecnología va acompañada de errores. ¿Cree que podremos confiar en estas máquinas?Los sistemas deberán ser redundantes. Si sólo vamos con un GPS, podremos tener muchos problemas porque en las ciudades hay calles cortadas por obras o niños jugando en la calle, y hace falta que haya algún otro elemento de control. Hará falta colocar también radares en los parachoques de los coches para detectar los obstáculos y poner chips en las carreteras. De este modo, el concepto de accidente de tráfico quedará obsoleto.Todo esto que explica cambiará el mundo completamente. ¿No cree que da un poco de respeto?La gente se asusta cuando se entera de estos grandes descubrimientos, pero es normal. Entonces empiezan a ver que los inventos son útiles y, más tarde, pasan a formar parte de su día a día.Con tanta tecnología controlando el mundo, ¿qué me dice de la privacidad que nos restará todo esto?La privacidad es un problema porque los gobiernos, como es obvio, quieren saber quiénes somos, pero no debemos tener miedo. Internet es tan poderoso que los gobiernos no lo podrán controlar del todo. El problema real son los criminales o los vecinos cotillas que querrán acceder a información confidencial. Es decir, no el gran hermano sino el pequeño hermano.¿Y como se evitará que puedan cotillear nuestros datos?Tendremos que crear un software que proteja quienes somos. En el futuro las gafas nos permitirán ver la biografía de la persona con quien estamos hablando, pero podremos proteger ciertas partes.Comenta que estas gafas y algunos otros inventos de los que ha hablado ya son una realidad...Sí, pero la gente no lo sabe y son muy caros. En el futuro todo el mundo dispondrá de esta tecnología. Estas gafas ya existen y de aquí a cinco o diez años su versión en lentillas también será una realidad.¿Tal y como ha dicho en la inauguración del congreso, los ordenadores serán más baratos que el papel?De aquí a 2020 el precio de los chips de los ordenadores se irá reduciendo a la mitad cada 18 meses. De aquí a 10 años algunos sólo costarán un céntimo de dólar. Por lo tanto, serán más baratos que el papel, más baratos que la basura o que el envoltorio de los productos que podemos encontrar hoy en día en las tiendas20minutos.es
Publicado por INNGENIAR GROUP en 19:28 1 comentarios
lunes 10 de mayo de 2010
PROSPECTIVA PARA EL DESARROLLO TECNOLÓGICO
Argentina
Organizado por la Subsecretaría de Estudios y Prospectiva del Ministerio de Ciencia, Tecnología e Innovación Productiva, se realizó el taller “Prospectiva de la innovación tecnológica como instrumento de respuesta a la crisis global” dictado por el Dr. Jorge Beinstein. Doctor en Ciencias Económicas de la Universidad de Franche Comté-Besancon de Francia, Beinstein es actualmente profesor titular de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires y en el Doctorado en Ciencias Económicas de la Universidad Nacional de La Matanza..Durante la presentación el subsecretario de Estudios y Prospectiva, Ing. Guillermo Venturuzzi, destacó la importancia de este taller en el marco de estudios sobre prospectiva, vigilancia e indicadores de innovación en los campos de agroindustria, biotecnología, nanotecnología y TICs que ya se están llevando a cabo desde la subsecretaria a su cargo.Por su parte, la secretaria de Planeamiento y Políticas del Ministerio, Dra. Ruth Ladenheim, hizo hincapié en el rol de la prospectiva en la toma de decisiones a la hora de establecer políticas públicas. .“Hoy en día campos tradicionalmente estables están atravesando momentos de incertidumbre, debemos contar con estudios prospectivos que nos permitan tomar las decisiones más adecuadas a nuestro contexto local y global. .El enfoque del Dr. Beinstein presenta la estrecha relación entre los cambios tecnológicos y los procesos de innovación y su relación con los cambios sociales y económicos”,resaltó Ladenheim.La presentación del Dr. Beinstein constó de una exposición del panorama global de la crisis de 2009, el desarrollo de la disciplina prospectiva y sus métodos y especialmente de la prospectiva de la innovación.“Es necesario tener en cuenta que para encontrar una salida a la crisis global, debemos tener en cuenta los cambios tecnológicos que esta coyuntura mundial nos plantea. Para eso debemos ser sujetos del cambio y no objetos de él”dijo Beinstein..Prensa MincytPublicado por INNGENIAR GROUP en 06:34 0 comentarios
Esteben Hawking predice viajes al futuro
La conjetura de protección cronológica es una hipótesis formulada por Stephen Hawking en
1992 que sostiene que las leyes de la física son tales que impiden el viaje en el tiempo en
cualquier escala que no sea submicroscópica, una forma de prevenir las paradojas
temporales.
Incluso Hawking sugería que la ausencia de turistas del futuro constituye un fuerte
argumento en contra de la existencia de los viajes en el tiempo (similar a la paradoja de
Fermi), pero ahora como parte del documental “El Universo de Stephen Hawking”
(transmitido en Discovery Channel anoche) ha manifestado que un día los humanos podrán
construir naves capaces de alcanzar velocidades tan altas que sería posible viajar en el
tiempo, apoyándose sobre la teoría especial de la relatividad de Albert Einstein con la
dilatación temporal.
nota completa clickear linkhttp://innovacionfutura.blogspot.com/2010/05/stephen-hawking-predice-viajes-al.html
Publicado por INNGENIAR GROUP en 10:51 1 comentarios
viernes 16 de abril de 2010
Las increíbles profesiones del futuro
Foto: granjeros verticales
Cirujanos de aumento de memoria, policías del clima, granjeros verticales, o pilotos, guías y arquitectos... ¡espaciales! Ésas son algunas de las opciones en las que habrá de formarse si quiere un trabajo en el futuro.
Según el estudio The shape of jobs to come (Los trabajos que se vienen) realizado por FastFuture, una consultora especializada en tendencias y previsiones del futuro, ésas serán algunas de las profesiones más demandadas de aquí al 2030.
Se calcula que en 20 años el planeta tendrá más de 8.300 millones de personas, habrá que lidiar a diario con el cambio climático, y la escasez de agua corriente y de comida será uno de los rompecabezas más difíciles de solucionar para la comunidad internacional.
FastFuture consultó a más de 486 especialistas de entre 58 países distintos y procedentes de cinco continentes.
Partiendo de un ejercicio de intercambio de ideas acerca de una serie de tendencias en temas económicos, políticos, sociales, demográficos, medioambientales y científicos, se elaboró una lista que se dividía básicamente entre "trabajos que no existen todavía" (por ejemplo, policía del clima) y trabajos que ya existen pero que serán mucho más predominantes (nanomédicos).
Como muestra la selección de los 20 trabajos más importantes, ser experto en una sóla materia ya no tiene futuro. La combinación de cualificaciones y de habilidades en disciplinas diferentes es una de las tónicas.
-Fabricantes de partes del cuerpo. La medicina regenerativa ya está dando sus primeros pasos. En el futuro necesitará personas que combinen cualificaciones médicas, de robótica y de ingeniería.
-Nanomédicos. Permitirá una medicina mucho más personalizada, donde los fármacos se administran al lugar dónde se produce la enfermedad. Se necesitarán personas con formación en biomedicina, biotecnología, física o robótica que sean capaces de administrar los tratamientos en el pequeñísimo nivel subatómico de la "nanoescala".
-Farmagranjeros. Conocimientos farmacéuticos que permitan modificar genéticamente las plantas, de forma que los cultivos puedan producir más cantidad de alimentos con mayores cantidades terapéuticas y proteínas. Las posibilidades del futuro incluyen tomates que sirven como vacunas o leches terapéuticas.
-Especialistas médicos en la tercera edad. Quienes sepan cómo tratar a la tercera edad y prolongar su vida activa durante más tiempo tienen el futuro asegurado. No sólo en cuestiones médicas, sino también en temas como la salud mental, psicología o ejercicio físico natural.
-Cirujanos para el aumento de la memoria. Parece ser que en el futuro se podrá implantar un chip que haga las veces de disco duro del ordenador humano y almacenar allí todas las memorias que el ser humano no es capaz de retener. Serán necesarios cirujanos que sepan llevar a cabo la operación.
-Experto en ética científica. A medida que la tecnología y la ciencia se integran más en el día a día a través de la nanotecnología, la protoneomica (estudio de todas las proteínas del cuerpo humano) o la genómica, muchos más debates sobre el posible uso maléfico de las tecnologías coparán los debates sociales. Serán necesarias personas que conozcan todas las ciencias. El futuro no planteará tanto la cuestión de "¿Se puede hacer?" como la de "¿Está bien que se haga?".
-Arquitectos, pilotos o guías turísticos... espaciales. Se necesitarán pilotos capaces de dirigir las naves espaciales y diseñadores que permitan ajustar el espacio fuera del planeta Tierra.
-Granjeros verticales. El futuro de la producción agrícola es vertical. Cada vez se escucha más la idea de una ciudad contenida en un solo edificio, probablemente un rascacielos de pisos ilimitados, donde la comida se cultiva en las distintas plantas de un edificio. Es más económico y más ecológico.
-Especialista en reversión de cambio climático. Habrá cada vez más demanda de profesionales que sean capaces de revertir los efectos más devastadores del fenómeno : personas con capacidad de aplicar soluciones multidisciplinares, como construir paraguas gigantes para desviar los rayos del sol.
-Vigilantes de cuarentenas. Las amenazas incumplidas que trajo consigo la gripe porcina dan cuenta de la importancia de tener más profesionales capacitados para luchar contra las epidemias. Si un virus se esparce de forma fulminante habrá pocos países, enfermeras y personas preparadas
-Policía del clima. Con cada vez más países tratando de "provocar" ciertos fenómenos meteorológicos, serán necesarias figuras que salvaguarden internacionalmente la cantidad de cohetes con yoduro de plata que se envían a la atmósfera.
-Abogados y profesores virtuales. Se espera que crezcan los conflictos sobre derechos de propiedad y descargas de internet, y la educación a distancia a través de la red.
-Ingeniero de vehículos alternativos. Coches eléctricos o de hidrógeno, pero quizá la posibilidad de los coches que vuelan o que van por debajo del agua también requieran de cualidades técnicas y profesionales formados en distintos ámbitos de la ingeniería.
-Periodistas de audiencias segmentadas. Se acabaron las audiencias globales y los programas dirigidos a millones de personas. El futuro está en la especialización y los periodistas se dirigirán a audiencias pequeñas.
-Desechador de datos personales. Personas especializadas se dedicarán a destruir los datos e información altamente sensibles que se deben desechar de forma segura para que no sean objeto de ciberataques.
-Organizadores de vidas electrónicas. La cantidad de información será tan desbordante que serán necesarios especialistas en organizar la vida electrónica: leer y archivar el correo electrónico, asegurar que la maraña ingente de datos estén ordenados de forma coherente, manejar tarjetas de crédito y e identificación electrónica.
-Inversor/agente de tiempo. El tiempo más que nunca será un valor en alza. Será necesario alguien que sepa administrarlo de forma efectiva y sacarle beneficio. Ya existen bancos de tiempo, de ahí a que existan inversores o brokers que lo comercien, sólo hay un paso.
-Agentes de redes sociales. Para que nadie se sienta excluido de las redes sociales se formarán personas dentro del ámbito de trabajo social, cuya función será facilitar la integración de los individuos en las redes.
-Gestores personales de marca. Ya vivimos en una sociedad obsesionada con las marcas. La del futuro enfatiza su necesidad creando una figura que se dedica a gestionarlas. ¿Qué personalidad proyectas en Facebook, Twitter y tu blog? ¿Qué valores personales quieres añadir a tu imagen? ¿Son consistentes con tu verdadero yo?
CAPITULO I
LA COMPUTADORA Y LA SOCIEDAD
1.1. ¿QUÉ ES UNA COMPUTADORA?
Una computadora (Hispanoamérica) u ordenador (España) es un dispositivo electrónico
compuesto básicamente de un procesador, una memoria y los dispositivos de entrada/salida
(E/S).
Por otro lado se dice que una computadora u ordenador es un sistemadigital con tecnología
microelectrónica capaz de procesar información a partir de un grupo de instrucciones
denominado programa. La estructura básica de una computadora incluye microprocesador
(CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la
comunicación entre ellos.
1.2. EVOLUCIÓN DEL TÉRMINO COMPUTADORA EN LA SOCIEDAD
Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un
procedimiento bien definido. En un principio, la palabra era usada para describir a las
personas que hacían cálculos aritméticos, con o sin ayuda mecánica, pero luego se trasladó a
las propias máquinas. Dentro de la definición que acabamos de dar, entraría el uso de
dispositivos mecánicos como la regla de cálculo, toda la gama de calculadoras mecánicas
desde el ábaco hacia adelante, además de todas las computadoras electrónicas
contemporáneas.
Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo
pueden realizar una función o un número determinado de funciones. Si pensamos en las
computadoras modernas, la característica más importante que los distingue de los aparatos
anteriores es que tienen una programación adecuada.
Con cualquier computadora se puede emular el funcionamiento de otra (únicamente limitado
por la capacidad de almacenamiento de datos y las diferentes velocidades) y, de hecho, se
cree que con las actuales se puede emular a cualquier computadora que se invente en el
futuro (aunque sean mucho más lentos).
Por lo tanto, en cierto sentido, esta capacidad crítica es una prueba muy útil, para identificar
las computadoras de uso general de los aparatos destinados a usos específicos (como las
macrocomputadoras).
Esta característica de poderse emplear para un uso general se puede formalizar en una regla
según la cual con una máquina de estas características se debe poder emular el
funcionamiento de una máquina de Turing universal. Las máquinas que cumplan con esta
definición son homologables a la máquina de Turing.
Originariamente, el procesamiento de la información estaba relacionado de manera casi
exclusiva con problemas aritméticos, pero las computadoras modernas son usadas para
muchas tareas diferentes normalmente sin ninguna
Sin embargo, en los últimos 20 años aproximadamente muchos aparatos domésticos, sobre
todo las consolas para videojuegos, a las que hay que añadir los teléfonos móviles, los vídeos,
los asistentes personales digitales (PDA) y un sinfín de aparatos caseros, industriales, para
coches y electrónicos, tienen circuitos homologables a la máquina de Turing (con la limitación
de que la programación de estos aparatos está instalada en un chip de memoria ROM que hay
que remplazar cada vez que queremos cambiar la programación).
Esta especie de computadoras que se encuentran dentro de otras computadoras de uso
general son conocidos como microcontroladores o computadores integrados. Por lo tanto,
muchas personas han restringido la definición de computadora a aquellas máquinas cuyo
propósito principal sea el procesamiento de información y que puedan adaptarse a una gran
variedad de tareas, sin ninguna modificación física, excluyendo a aquellos dispositivos que
forman parte de un sistema más grande como los teléfonos, microondaso aviones
1.3. USO DE LA COMPUTADORA EN LA SOCIEDAD
A mediados de la década del 1970 las computadoras eran usadas por pocas personas, pero ya
en la actualidad han tenido un mayor impacto en la sociedad que cualquier otro invento. Esta
acogida se debe a sus características.
• En el comercio la computadora ayuda en el diseño y manufactura de productos, a dar
forma en las campañas de mercadeo y a dar seguimiento y procesar inventarios, cuentas a
cobrar y a pagar, y nóminas.
• La recepcionista utiliza la computadora para grabar mensajes, localizar empleados y
para tareas administrativas.• El departamento de ventas coteja la disponibilidad del producto y el crédito del
cliente. Recomienda materiales para complementar el producto ordenado.• El departamento de mercadeo utiliza la computadora para producir el material de
promoción, utilizan programas de gráficas, dibujos y Desktop publishing. Utilizan
calendarios electrónicos para planificar las promociones.
• En envío y recibo utilizan la computadora para entrar transacciones manteniendo
actualizados los record de inventario y venta.• En el área de manufactura la utilizan para hacer el itinerario de producción y registrar
los costos de los artículos producidos.• El departamento de contabilidad resume las transacciones financieras.
• El departamento de recursos humanos mantiene la pista de los empleados pasados o
actuales, además de los adiestramientos y destrezas de los empleados.
En la educación la computadora es un medio que fortalece el proceso enseñanza -
aprendizaje. Se están utilizando los programas de aplicaciones como, por ejemplo:
procesadores de palabras (para crear documentos, periódicos), hojas electrónicas (registro
de notas, estadísticas) y base de datos (record de estudiantes).
• También, se ha hecho popular el uso de Internet. El uso de multimedios, simulaciones
y correo electrónico han sido integrados en el diseño del CAI ("Computer Assisted
Instruction"). Otro componente que está tomando mucha popularidad es el de educación a
distancia.• La profesión médica utiliza la computadora en el diagnósticoy monitoreo de los
pacientes y para regular los tratamientos. Está utilizando bases de datos médicos
(Medline) de investigaciones recientes con hallazgos y tratamientos. También está
utilizando las redes de telemedicina para diagnosticar a larga distancia a través de las
videoconferencias.• En los hospitales utilizan la computadora para recopilar datos de pacientes y
monitorear signos vitales. La tomografía axial computadorizada (CAT o "CT scanner") son
utilizados para detectar cáncer en el cerebro, en otras partes corporales y si hay
recurrencia después de la cirugía o quimioterapia. Otro método parecido es la imagen de
resonancia magnética ("MRI scanning"), utiliza ondas de radiopara obtener una imagen
que muestre los órganos internos del cuerpo, y estudiar cada órgano detalladamente. • Los científicos usan la computadora para analizar el sistema solar, seguir los patrones
del tiempo y llevar a cabo experimentos. Los científicos formulan las hipótesis y luego las
prueban a través de la observación y colección de datos. En ocasiones tienen que simular
el comportamiento del mundo real y su medio ambiente para comprobar la veracidad de
sus teorías. Para ello utilizan computadoras con gran capacidad de almacenamiento y
velocidadde procesamiento (supercomputadoras), ya que la cantidad de datos es inmensa
y pueden tener presentaciones gráficas de alta resolución. • En el área de publicaciones la computadora se está utilizando en los medios de
impresión, tales como: revistas, magazines y periódicos. Están utilizando programas de
"desktop publishing" para agilizar sus trabajos. Las páginas son creadas en la
computadora, se pueden añadir gráficas o fotosde diferentes medios, que son guardadas
en disco flexible, y luego se imprimen en una impresora láser a color.• En el gobiernola computadora es usada en todos los niveles. La utilizan para un
funcionamiento más eficiente, efectivo y democrático. Se utiliza en los departamentos de
la Defensa, Energía, Justicia, Tesoro, Educación, Salud y Servicios Sociales.• En los deportes el uso de las telecomunicacionesnos permite el disfrute de los
deportes en el momento en que estén ocurriendo no importa el lugar del mundo. Los
atletas pueden mejorar su actuación mediante el uso de sensores, cámaras, estadísticas
computadorizadas de datos precisos sobre su cuerpo, según practica. También, mediante
el uso de imágenesen 3D. Con la ayuda de CAD ("Computer Aided Design") los fabricantes
de equipo deportivo están produciendo artículos de mejor calidad y efectivos.• En nuestra cultura las computadoras han afectado casi todos los aspectos de nuestra
cultura contemporánea:• En el arte han provisto al artista de menos herramientas para crear arte tradicional
como nuevas formas de crear arte. Ejemplo: fractales e imágenes definidas
matemáticamente (X fórmulas).• En la fotografía el uso de cámaras digitales y sus programas han permitido al
fotógrafo digitalizar, almacenar y presentar las fotos en una computadora. Ejemplo:
Photoshop, que permite manipular los elementos de la foto. • En la músicala grabación digitalizada ha sustituido la grabación análoga de cintas
(tapes). Se están utilizando los sintetizadores que pueden reproducir los tonos complejos
de cualquier instrumento musical. • En el baile programas como "Life Forms" han ayudado a los coreógrafos a crear pasos
de baile en 3D, y luego son guardados para el futuro. También permite el diseñar, montar,
editar y manipular secuencias de los movimientos del cuerpo en el monitor.• En el teatro las computadoras juegan un papel importante en el diseño de los
escenarios, control de luces y efectos especiales.• En la producción de películas, comerciales y programas de TV las computadoras han
revolucionado la creación de éstos. Las computadoras generan gráficas, animación y
efectos especiales. Ejemplo: Toy Story, Jurassic Park, ID4, Twister, etc. • El estudio PISA asegura que los alumnos rinden más si pasan mucho tiempo con la
computadora. Los investigadores, Wößmann y Fuchs, de Munich, opinan lo contrario. • Desde su creación, la computadora es objeto de análisis en cuanto a sus ventajas y
desventajas. Aclaremos que se trata del PC ( personalcomputer) porque en la época de los
ordenadores inmensos que abarcaban toda una habitación, cada científico estaba en la
gloria por tener acceso a esa tecnología y poder desarrollar programas propios.
1.4. LA COMPUTADORA Y APRENDIZAJE EN LA SOCIEDAD
El estudio de evaluación PISApublicó que las personas que tienen computadora en su casa y
acceso de estas en la escuela registran un nivel más alto. PISA es la abreviatura de
Programms for International Student Assessment que realiza la Organizaciónpara la
Cooperación Económica y Desarrollo, OECD, que analiza la calidad y equidad del nivel de
aprendizaje de los adolescentesde 15 años comparativamente en 28 países. Hasta ahora los
estudios se concentraron en lectura, ciencias naturales y matemáticas. Los alumnos alemanes
se ubican alrededor del lugar 18 al 24.
La OECD simplemente ve una relación directa entre el acceso a una computadora y el
rendimiento. Los expertos en educación del Instituto de Investigación Económica (Ifo) de
Múnich, Ludger Wößmann y Thomas Fuchs, piensan que este criterio es insuficiente. Fuchs
señala que la computadora en la casa significa que la familia está en una posición social
mejor. Los hijos cuyos padres son profesionales, tienen de por sí mejor nivel.
Como instrumento o medio para educarse, informarse, investigar, comparar, entrenar el
cerebro, la memoria, la rapidez mental y, en general, las capacidades mentales, la
computadora es excelente.
Lo importante es saber usarla adecuadamente. Y para eso necesitamos maestros que nos
indiquen el mejor camino. Si los maestros se oponen de un principio, como sucede en
Alemania, los niños y jóvenes le darán el uso que suelen darle los de su generación: juegos
virtuales, conversaciones instantáneas.
Si los chicos trabajaran con la computadora para la escuela y aprender, supuestamente se
evitaría el efecto negativo, dicen los investigadores de Ifo. El 82% de los evaluados en PISA
tienen una computadora en su casa.
El 65% aseguró poseer un software de aprendizaje. Pero apenas la mitad de ellos usa la
computadora para investigar o para mandar correo electrónico.
presente siglo ha ingresado en la lista de los medios de enseñanza, partiendo de este criterio
ubica el uso de la misma a partir de dos clasificaciones generales:
1)La computadora como medio de enseñanza de acuerdo a su propósito.
2)La computadora como medio de enseñanza de acuerdo a la tecnología que emplea.
Consideramos que a partir del modo o forma de utilización de cada una de estas tendencias
las podemos agrupar en tres grupos o clasificaciones:
Objeto de estudio Herramienta de trabajo Medio de Enseñanza
Aprendizaje acerca de la computadora.Utilización pedagógica de paquetes básicos.Inicio a la informática.
La computadora herramienta.La computadora programable.Utilización de la computadora en la investigación.Gestión informatizada de establecimientos escolares.Gestión pedagógica.Aprendizaje con la computadora.
La computadora tutor.Aplicaciones pedagógicas de la computadora.Aprendizaje a través de la computadora.Aprendizaje acerca del pensamiento con la computadora.Catalizador del aprendizaje.Auxiliar pedagógico.Aprendizaje con la computadora.Herramienta de enseñanza.Medio de enseñanza
En este trabajo se asume la anterior clasificación enunciada por Expósito , y que después de
hacer el análisis necesario hemos adaptado para este caso específico la cual se describe a
continuación.
1.-La computadora como objeto de estudio:
El alumno asimila los conceptos y procedimientos Informáticos fundamentales y desarrolla
habilidades para la aplicación de los sistemas o paquetes específicos en los contenidos de la
especialidad.
2. La computadora como herramienta de trabajo:
El alumno resuelve problemas de la rama productiva o de servicios, haciendo uso de los
sistemas o paquetes, estudiados.
3. La computadora como medio de enseñanza:
Las diferentes disciplinas a partir de diferentes software, simulan procesos o fenómenos,
repasan, evalúan, entrenan, etc., como apoyo al contenido impartido en su clase.
En consecuencia, podemos plantear que la Computación puede ser objeto de estudio cuando
se considera como una disciplina autónoma, es decir brindar instrucción sobre aspectos
fundamentales que permitan la adquisición de conocimientos y habilidades en el uso de
diferentes sistemas y a su vez convertirse en una útil herramienta de trabajo cuando se pone
en función de las necesidades de cada especialidad, a la vez que puede ser empleada como un
poderoso medio de enseñanza en las diferentes disciplinas
La tecnología avanza a una velocidad vertiginosa. La imagen que tenemos del futuro cambia
incluso más deprisa de lo que pueden adaptarse las películas de ciencia ficción –no hay más
que ver todos esos coches voladores-, y uno de los ejemplos de ese cambio es la idea del
"ordenador del futuro".
Será grande o pequeño. Estará en la pared, en la mesa o en el bolsillo. Habrá uno en casa para todos o mejor, cuatro por cabeza. Cada vez que nos acostumbramos a una idea, la visión del ordenador del mañana cambia de forma radical.
No hace tanto que se hablaba de tener un gran ordenador en cada casa, que no sólo tendría un paquete de ofimática y un navegador sino juegos, películas, música... todo conectado a una gran pantalla.
Uno de los puntos fuertes de este proyecto era la domótica. El ordenador central controlaría la calefacción, el sistema de alarma y hasta los electrodomésticos, convirtiendo la vivienda en un sofisticado edificio inteligente.
Ahora, sin embargo, los proyectos sobre la computadora del futuro no llevan el famoso ordenador central muy lejos de la gestión doméstica, más allá que a hacer la compra desde la nevera. Para las películas están los centros multimedia, y las tareas del ordenador personal se quedan bien lejos.
Siempre en movimiento
Ese reparto de tareas se debe, entre otras cosas, a que estos sistemas no tenían en cuenta el que sería el gran valor tecnológico del presente: la movilidad.
¿De qué sirve un ordenador que te gestiona la calefacción si cuando cancelas un viaje y vuelves antes de vacaciones, no puedes avisarle para que caliente la casa dos días antes de lo previsto? Así, los proyectos de casa domótica no tardaron en incorporar sistemas de órdenes por Internet o a través de SMS.
La llegada de las PDAs y los smartphones, popularizados con el lanzamiento de la BlackBerry en 2002, supuso un cambio radical de concepto. Si puedes mandar correos electrónicos desde el aparato que llevas en el bolsillo, y - según avanza la técnica- ir a todas partes con tus presentaciones y tus fotos y tus favoritos en el navegador, lo único que necesitas allá donde vayas es una pantalla y un teclado.
En la actualidad existen miles de aplicaciones para ampliar las funciones de los dispositivos portátiles, y uno puede llevar en un bolsillo mapas, las funciones básicas del ordenador, cámara -y editor- de fotos, reproductor de música y hasta vídeos. Ah, sí, y el teléfono.
Además, los móviles están demostrando una suerte de canibalismo tecnológico y aspiran a sustituir no sólo a otros dispositivos, sino también a objetos menos sofisticados, como las tarjetas de crédito.
La mesa es el ordenador
Hay sueños tecnológicos ambiciosos, y los hay modestos. Uno de éstos es poder desayunar tranquilamente y leer el periódico en la mesa mientras mojamos el cruasán en el café. No, no sobre la mesa. En la mesa, que en esta pequeña fantasía de dicha doméstica es una especie de pantalla gigante.
En 2007, Microsoft presentó Surface, un ordenador que en realidad es una mesa, y que se controla sólo con tocar la gran pantalla.
Aunque no han pasado al consumo masivo, estas "mesas-pantallas" pueden verse en algunos comercios de tecnología y, recuperando el espíritu de aquel desayuno tecnológico, en restaurantes. También juegos de rol, cuando el becario de Microsoft de turno deja volar su imaginación.
Ya que hablamos de juegos, aunque de otra clase, el lanzamiento de las videoconsolas de
última generación fue otra vuelta de tuerca para esta lista de propuestas: Conecta la consola a la tele del salón y tendrás no sólo juegos, sino reproductor de DVD, disco duro e Internet, recuperando en cierta forma aquel concepto del ordenador central.
No tiene programas de ofimática, apuntarán muchos. ¿Pero acaso no estamos venga a oír hablar de la computación en nube? La industria insiste en convencernos de que pronto tendremos un navegador, ni más ni menos, con el que acceder a programas, archivos y datos alojados en un distante servidor oculto bajo un desierto. Aunque no nos lo terminanos de creer.
Tablets: Primera y segunda reencarnación
Nos gusta llevarlo todo encima, a todas partes. Pero también nos gusta poder leer la pantalla sin forzar la vista, y últimamente, nos fascinan las pantallas táctiles.
Para contentar estos apetitos, a medio camino entre unos modelos y otros, están las tablets, como aquella que salió en la odisea espacial de Kubrick. Como si en el 2001 cada uno tuviera un par de esas...
Volviendo al presente, Apple, la compañía que revolucionó el mundo de los reproductores portátiles con el iPod, presentó hace poco, el iPad. Todo pantalla táctil, con un tamaño compacto y acceso a Internet.
Un momento, se dijeron muchos. ¿Este trasto no os resulta familiar?
Las tablet PC habían tenido su momento de gloria en ferias y prensa especializada allá por los noventa, para luego pasar a segundo plano, quizá por falta de tecnología que pusiera el aparato a la altura de lo que se esperaba de él.
Y ahora, ¿ha llegado su momento? No parece que esté garantizado, vistas las críticas a un dispositivo que no soporta flash (que funciona en buena parte de las páginas web), no es multitarea (cuando nos hemos acostumbrado a escribir un informe mientras jugamos al solitario mientras ojeamos el periódico mientras escuchamos música) y no tiene puertos USB para enchufar todos los aparatos que el móvil aún no ha integrado.
En cualquier caso, y mientras esperamos a que llegue el próximo ordenador del futuro -y el siguiente-, con nuestro portátil o equipo de escritorio de (casi) toda la vida, podemos imaginarnos cómo sería tener un ordenador-pantalla controlado con gestos para sentirnos un poco como Tom Cruise en Minority Report. Demostración abajo.