Pág 1 de 254 Bicentenario en Betazeta Volumen Compilatorio Artículos CHW Todo el material contenido en este documento se publicó originalmente en CHW . El contenido pertenece a sus respectivos autores y las imágenes, logos y marcas a sus respectivos dueños. Eres libre de citar cualquiera de estos artículos publicando la fuente.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Pág 1 de 254
Bicentenario en Betazeta
Volumen Compilatorio Artículos CHW
Todo el material contenido en este documento se publicó originalmente en CHW. El
contenido pertenece a sus respectivos autores y las imágenes, logos y marcas a sus
respectivos dueños. Eres libre de citar cualquiera de estos artículos publicando la fuente.
(004) El Reventón de la Burbuja Dot Com Por Felipe Figueroa Fagandini
Bienvenido a nuestro primer artículo de la colección “Los 200 de Betazeta“, en donde les hablaremos sobre un fenómeno que marcó un antes y un después en la breve historia de la web.
Querido lector, la red no fue siempre como usted la ve hoy. Si ud. lee las noticias de este y otros sitios de actualidad tech ya debe tener una idea bastante clara del quién es quién en la web. Sabe quienes son Google, Yahoo, eBay, Microsoft, Amazon, Twitter, Digg, Facebook, y por supuesto los representantes de los medios tradicionales que se han forjado una posición de fuerza en la web: News Corporation, NBC Universal, VIACOM, Time Warner. Pero eso es hoy, y para llegar aquí hubo un proceso de selección natural que no fué paulatino como el de la teoría evolucionista. Esa selección ocurrió en un par de años y fue bastante sangrienta.
Pero nos estamos adelantando, hablando de burbuja cuando no necesariamente el lector sabe lo que es una burbuja. Para empezar, las burbujas sólo se advierten en retrospectiva, porque ha habido muchas ocasiones en las cuales el mercado apuesta firme por una tecnología, industria, producto o servicio, pero no siempre son burbujas. Uno puede decir que son burbujas cuando mira hacia atrás y dice: “En realidad, se infló en demasía el precio, hasta que reventó”.
Por poner un ejemplo, muchos mercados han tenido auges repentinos, ya sea por el boca a boca, porque se pone de moda, porque las rentabilidades son muy convenientes,
porque el riesgo es muy bajo, etc. Entre estos auges hay ejemplos tanto legales como ilegales: la esclavitud (siglo XVIII), el microtráfico de droga en los barrios marginales, el cultivo de canola, soja y otros elementos destinados a hacer biodiesel, el cultivo de algodón en New Orleans en el siglo XIX, los videoclubes de barrio en los años 80, los ferrocarriles a mediados del 1800 y bueno, las puntocom durante la segunda mitad de los 90.
Algunos eran negocios legítimos y altamente rentables, y a medida que fueron entrando más jugadores al mercado se fueron ajustando las rentabilidades en una curva decreciente que tiende a un equilibrio. Otros eran o siguen siendo actividades altamente rentables porque son ilegales o moralmente incorrectas, y en esos casos no se puede hablar de un negocio sustentable porque cualquier día las fuerzas del orden te caen encima (en el caso del narcotráfico) o emiten una ley contra tu negocio (la esclavitud). Esas no son burbujas, y en cambio las puntocom sí lo fueron. ¿Por qué?
Pág 6 de 254
El ejemplo del jamón y los tupperware
Ejemplifiquémoslo de la siguiente manera: todos sabemos que una pierna de jamón ibérico pata negra vale unos USD 200. Un día en la bolsa de jamones (un mercado ficticio) ves que un jamonero emite 100 acciones por una pierna de jamón, y cada acción la vende a USD 1 en circunstancias que el 1% de un jamón que vale USD 200 debieran ser dos dólares. En ese caso compras porque te das cuenta de que las acciones están baratas, que estás comprando un pedazo de algo que, proporcionalmente, vale más. Otras veces compras acciones de una empresa de paraguas porque sabes que viene un invierno lluvioso, y en ese caso tu intuición te sugiere que la demanda hará subir el valor de tu inversión más allá del precio actual.
En el caso de las puntocom, la gente empezó a comprar acciones sin saber cuánto valía realmente el jamón completo, ni si acaso tenía buenas proyecciones como los paraguas. Era una industria que nadie entendía pero, como todo el mundo estaba comprando, arrastraba a los demás y el fenómeno se perpetuaba.
Ahora bien, es injusto decir que estas empresas puntocom no tenían un modelo de negocios. En realidad sí lo tenían pero era cojo en la mayoría de los casos: expandir el mercado y luego, cuando lo lideraran ampliamente, capitalizarlo. ¿Cómo? Bueno, eso ya era otro problema y muchos patearon su solución.
¿Alguien se acuerda de los Tupperware? Los traigo a colación para ilustrar una idea, pero por si no lo saben los tupperware eran una colección de potes plásticos. Los había de todos los tamaños y colores, con y sin tapa, y servían para servir o presentar la comida así como para guardarla en el refrigerador. Los tupperware no se vendían en tiendas sino que se distribuían a través de un sistema piramidal: ganabas plata vendiendo tupperware, pero ganabas más si podías convertir a otros en vendedores, de los cuales recibías comisión hasta X niveles.
Para vender los tupperware se hacían “reuniones tupperware”. La vendedora preparaba bocadillos y bebestibles y los ofrecía generalmente en los mismos tupperware que promocionaba. Unas galletitas por aquí, unos pancitos por allá, unas ramitas de apio para las viejas hipócritas que pretenden cuidar la línea pero después la remojan en un pote de mayonesa, unos traguitos y bueno, ya me entiende. Con ese convite la vendedora invitaba a las vecinas del barrio y a sus amistades, y mientras degustaban la comida les iba hablando de las bondades de tupperware. Algunas iban a puro comer y no compraban nada pero ese no es el tema. Alguien podría decir: “oye, pero así nunca vas a ganar plata, debieras cobrar por la comida”. Y ahí llegamos a nuestro punto: la comida construye mercado, pero el modelo de negocios no es ganar plata por la comida así que la regalas para atraer gente acelerada y agresivamente. El modelo en este caso era vender tupperwares o convertir a una vecina en tu vendedora referida, la comida era sólo un gancho.
Con las puntocom se practicó un sistema parecido: muchas crecieron agresivamente ofreciendo servicios gratuitos para construir una gran participación de mercado, pensando que cuando la tuvieran podrían inventar un modelo rentabilizable a base de cobrar por un servicio premium o algo así. Cuando ofreces algo grátis la demanda teóricamente puede ser infinita, así que efectivamente muchos de estos servicios crecieron en tráfico muy rápido. Esa tasa de crecimiento impresionó a inversionistas y Venture Capitals, que sin saber valorizar bien la empresa que financiaban les ponían aportes de millones de dólares sin siquiera hacer un due diligence previo. Se habían olvidado de las prácticas contables y financieras que te permiten evaluar una inversión, y en medio de esa fiebre los VC simplemente metían plata en emprendimientos sobre cuyo éxito no tenían seguridad, y entonces se “divesificaban” invirtiendo no en una sino en 10 puntocoms al mismo tiempo, esperando que alguna fuera un tremendo negocio tal que diera igual si el resto era un fracaso. Lo malo es que si inviertes en 10 empresas del mismo rubro estás poniendo todos los huevos en el mismo canasto: si el rubro facasa como un todo, hasta ahí llegaste.
Pág 8 de 254
Quemando dinero
Hablar de los VC que perdieron su plata es sólo una fracción de la historia. Desde que existe el capitalismo hay gente que se hace millonaria y gente que pierde su plata: son las reglas del juego. Pero este caso fue especial porque fue acompañado de otros fenómenos, de entre los cuales el mayor es el fenómeno del quemar dinero.
Se dieron casos de empresas que tenían cuatro o cinco empleados y recibían un aporte de un VC por un millón de dólares. Una parte la invertían, claro, pero con otra arrendaban oficinas a todo lujo en los barrios más caros, se ponían sueldos de 5 cifras, y a veces al cabo de un año ya habían quemado el aporte del millón de dólares sin haber consolidado un modelo de negocios que les permitiera ser autosustentables. Es más, muchas terminaban ese período de quema sin haber ganado un solo dólar.
Por otro lado, hubo quienes construyeron un servicio lo suficientemente masivo como para despertarle el apetito a gigantes de las comunicaciones o de otras industrias, las cuales compraron por ejemplo servicios de correo (como Microsoft que compró a Hotmail) haciendo de sus fundadores verdaderos multimillonarios que a veces reinvirtieron su plata en otras puntocom, y otras sólo se dedicaron a recorrer el mundo dando charlas. Aquí entre nos, esas charlas debieran ser de “cómo inflar un servicio, venderlo mil veces más caro de lo que vale en cuanto a retorno esperado, y dejar a otro con el problema“. Pero no, son charlas de emprendimiento y visión estratégica. El mundo no es un lugar justo.
También se dio el caso de empresas puntocom que en vez de apoyarse en un VC se fueron directo a IPO, saliendo a la bolsa. Cuando sales a la bolsa, haces pública una parte de la propiedad de la empresa y a cambio recibes mucho dinero fresco como para crecer. Por ejemplo, el tipo que es dueño de esa pierna de jamón serrano del ejemplo anterior, decide salir a la bolsa y vender el 49% de sus acciones. Resulta que estamos parados en la era de “la burbuja del jamón ibérico” y vende cada acción, que vale un 1%, en 10 dólares, valorizando por tanto en USD 1000 el jamón completo. Al final del día ya no es dueño de un jamón de USD 200, sino del 51% de un jamón de USD 1000 (o sea su patrimonio personal creció pese a vender casi la mitad de éste) y la empresa tiene USD 490 en caja para invertir, crecer, pagar sueldos y hacer campañas de márketing.
Ahora, el jamón serrano sigue valiendo USD 200, así que si en bolsa de valoriza a USD 1000 podemos estar ante una burbuja. Este fenómeno llegó a ser increíble en algunos casos. Por poner un ejemplo, la acción de AOL creció tanto en los años 90, que entre cash y canje de acciones compraron a la mayor empresa de medios del mundo, Time Warner, el año 2000. Cuando la burbuja explotó, el valor real de AOL fue quedando en evidencia y
Pág 9 de 254
al nombre AOL Time Warner al poco tiempo le quitaron el prefijo “AOL”, pero más importante, finalmente Time Warner terminó escindiendo AOL, deshaciéndose de ella como una empresa independiente cosa que luchara por su supervivencia sin vampirizar los recursos del resto. Es una contradicción patente, que un gigante compre a otra empresa y luego ese gigante se desinfle hasta que la parte adquirida cobre todo el protagonismo y termine deshaciéndose de la primera.
Sólo estamos citando algunos de los fenómenos que acompañaron a la burbuja y la fiebre por invertir en empresas dot com, pero reflejan lo irracional que llegó a ser la época, retroalimentada por créditos muy blandos que la Reserva Federal intentó frenar subiendo la tasa de interés hasta un 6%, consiguiendo indirectamente el efecto contrario.
Ocurrió el 10 de marzo del año 2000. El NASDAQ llego a su peak histórico superando los 5000 puntos y a esa altura estaban jugando los descuentos de la fiebre dot com. Decimos esto porque con todo ese miedo que metieron con “el bug del año 2000 o Y2K” muchas empresas anticiparon su renovación de equipos y los últimos meses del año 99 así como los dos primeros del 2000 la demanda por hardware y licencias de software subió a niveles históricos, pero como decimos, esto pasó porque las empresas adelantaron sus calendarios de renovación de equipos.
Esta demanda acelerada y concentrada disparó las utilidades de las empresas tech, y las empresas tech asumieron que ese aumento se mantendría en el tiempo así que reinvirtieron fuertemente para hacer frente a una demanda tan contundente. Como podrán suponer, pasó lo contrario: cuando llegó marzo 2000 la mayoría de las empresas que iban a cambiar de equipos durante los años 2000 y 2001 ya habían hecho su renovación, y las órdenes bajaron bruscamente.
Segundo, empezó a haber cada vez más temor en el ambiente acerca de la demanda por monopolio que el estado norteamericano le estaba siguiendo a Microsoft. Al final si alguien temía que Microsoft colapsara producto de esa demanda se equivocaba, Microsoft sigue siendo tremendamente fuerte hasta el día de hoy.
Tercero, cuando ese viernes el Nasdaq llegó a superar la barrera sicológica de los 5000 puntos muchos traders dijeron “es hora de vender y hacer la pasada de mi vida” pero fue tal la agitación de ese día que cuando ingresaron las órdenes de venta, éstas se digitaron fuera de rueda y quedaron agendadas para el día lunes 13 de marzo. Esta simple coincidencia provocó que muchas órdenes de venta de acciones de Microsoft, Dell, IBM, Cisco, Oracle y otras se cursaran efectivamente ese lunes por la mañana. Terminar un viernes vendiendo es cosechar ganancias, pero abrir un lunes vendiendo tiene otra connotación: todos pensaron que era una “estampida” y decidieron vender. Una semana después el NASDAQ había caído un 9% a 4500 puntos.
Con el temor reinante, las puntocom dejaron de recibir inversiones de ángeles y VC, y sin esa plata para quemar no tenían cómo mantenerse. Las que se iban a abrir a la bolsa cancelaron sus IPO anticipando que les iría pésimo ante el mal escenario reinante. En los dos años que siguieron muchas se declararon en bancarrota y los inversionistas perdieron su plata.
Pág 11 de 254
Daños Colaterales
Cuando se arma una burbuja como la vivida en los años 90 no se trata de un fenómeno aislado. Hay todo una industria satélite que florece, y por lo tanto colapsa, en forma paralela.
El ejemplo más pintoresco fue una explosiva concurrencia a las universidades para carreras humanistas. Muchos programadores, informáticos y analistas que quedaron sin trabajo volvieron a vivir con sus padres y se metieron a estudiar otras carreras con 30 años a cuestas.
Otros no cambiaron de carrera pero se enfocaron en otros temas. Los traders que se acostumbraron al vértigo bursátil vivido en la cresta de la ola siguieron buscando en qué emplear su conocimiento y gusto por la adrenalina. Algunos se volcaron al negocio de los bienes raíces y entre el 2004 y el 2005 aumentó en un 50% la cantidad de propiedades compradas no con fines de vivienda sino como inversión. Eso, como ya sabemos, generó otra burbuja debido a que los pagos de hipoteca y el pie requerido eran ridículamente bajos, lo cual llevó a una crisis todavía peor a fines del 2008. Pero ese es otro tema.
Otro fenómeno: muchas ciudades de los Estados Unidos aspiraban a convertirse en nuevos Silicon Valley. Crearon parques de edificios de oficinas a todo lujo, plantas libres que parecían un potrero y todos equipados con los equipos más avanzados de control, climatización, seguridad y conectividad. Muchos de esos parques de oficinas quedaron semiabandonados luego de la debacle, con pérdidas sustantivas para las constructoras y a veces los municipios de la ciudad en cuestión.
Los proveedores de equipamiento también sufrieron. Tal vez el caso más emblemático fue Nortel Networks, en su momento la empresa más grande de Canadá. Nortel venía creciendo sostenidamente desde los años 70, y cuando se dió el fenómeno de la burbuja puntocom invirtió agresivamente para ser el mayor proveedor de soluciones integrales de conectividad. Tenían de todo, desde teléfonos hasta fibra óptica, pasando por routers, switches, firewalls y lo que se les ocurra.
En el año 2000 tenían más 94.000 empleados. Ellos solos representaban como el 35% del valor total del Toronto Stock Exchange, algo así como USD 267.000 millones, más de lo que hoy valen Google, Apple, IBM u Oracle ¿Se imaginan? Bueno, dos años después la empresa valía USD 3.350 millones, o sea un 1.25% del valor original. Todo esto, porque tenían un modelo de negocios que les hacía perder plata pero a cambio crecían muy rápido en participación de mercado. Cuando ese mercado se desinfló y la demanda bajó abruptamente, se quedaron con una capacidad instalada enorme que se había vuelto un lastre, un costo hundido. A lo mejor si la burbuja se hubiese mantenido, Nortel hubiera llegado a una meseta de crecimiento en donde hubieran modificado el modelo de negocios pasando de “crecer perdiendo plata” a “mantener participación ganando plata”… pero nunca lo sabremos.
Pág 12 de 254
Nortel no quebró en ese entonces. Se reestructuró, repactó sus deudas, despidió a miles de personas, pero nunca se recuperó del todo. Igual a la larga quedó en bancarrota y se declaró en quiebra el 2009. Ahora, cuando cayó bruscamente el valor de Nortel no sólo cayó una empresa privada. No sólo quedaron miles de personas desempleadas. Lo más grave, probablemente, es que los fondos de pensiones canadienses tenían la mayor parte de sus fichas en acciones de Nortel, y con su caída dejaron a muchas personas sin poder jubilar, o con pensiones inusualmente bajas. Un desastre.
Asi como muchos colapsaron, unos cuantos se salvaron. Es curioso, porque si al principio de la burbuja nos hubieran contado quienes permanecerían en el tiempo, a lo mejor no hubiesen calzado con los que mejor pintaban.
Junto con los que perduraron como empresa, hubo servicios que perduraron como tales pero sólo gracias a que una empresa grande los compró. Alguien podría decir que Hotmail y Geocities sobrevivieron a la debacle dot com, pero en realidad sus dueños se hicieron millonarios, le enchufaron el problema de rentabilizar los servicios a Microsoft y Yahoo, respectivamente, y se mandaron a cambiar (o a dar charlas). Yahoo terminó cerrando Geocities hace pocos meses, y Microsoft, bueno, no creo que haya ganado mucha plata con Hotmail. En realidad, si no fuera porque los compraron empresas solventes, esos dos servicios hubieran sido de los primeros en colapsar durante el 2000.
Pero bueno, no nos quedemos en supuestos. ¿Quiénes sobrevivieron y por qué sobrevivieron?
Google sobrevivió y hoy es el rey indiscutido de la web, pero cuando ocurrió la debacle Google no era un ejemplo de esas puntocom artificialmente infladas. Eran una empresa experimental que en vez de quemar dinero se dedicó a perfeccionar sus algoritmos y capacidad instalada para crecer, reinvirtiendo casi todo aporte de capital. No es difícil ver por qué Google sobrevivió: es otra generación.
Yahoo también sobrevivió, y cuando ocurrió la gran debacle ya era líder de su mercado. Con el tiempo las cosas fueron empeorando para ellos y paulatinamente perdieron la punta, pero lo importante es que cuando la burbuja estalló ellos ya estaban en una posición tan sólida que no se vinieron abajo. Es importante entender esta correlación entre el ciclo de crecimiento y el momento en que el reventón te pilla. Si te pilla en un plan agresivo de expansión en donde no tienes retorno y estás dedicado a quemar plata para crecer rápido, estás condenado. Si en cambio ya pasaste la etapa del crecimiento meteórico y te pilla consolidado, probablemente sobrevivas y, si tu empresa nunca se planteó para quemar dinero y crecer rápido sino ir despacito por las piedras, puede que nunca estés expuesto a caer estrepitosamente, aunque tampoco crecerás meteóricamente.
Otros sitios que eran líderes y lograron sobrevivir pese a venir saliendo de una etapa en donde perdieron plata para crecer agresivamente fueron eBay y Amazon. El segundo es tal vez el único ejemplo real de una empresa que planteó la tecnología como un canal mejor para un negocio existente. Yahoo ofrece búsquedas web, pero no sustituye un servicio tangible. No había búsquedas web antes de la web. Amazon, en cambio, fue uno de los que planteó las ventajas de los eTailers vs los retailers tradicionales, y aunque pasó varios años con números en rojo, finalmente alcanzaron el break-even. Lograron crecer hasta un tamaño en donde el hecho de manejarse via web en vez de tener una cadena de tiendas
los hacía más eficientes que cualquier retailer de carne y hueso. Y entonces empezaron a retroalimentar ese crecimiento ganando ya no sólo en utilidades porcentuales y en tasa de crecimiento, sino en volumen y totales.
eBay, en cambio, planteó un negocio nuevo que eran los remates por internet. A diferencia de Amazon, no se puede decir que haya planteado un negocio antiguo en un canal nuevo, porque en el mundo real no hay remates de pendrives ni vinilos raros. Sin embargo, lo importante es que el reventón los pilló ya consolidados, líderes del mercado y con decenas de clones repartidos por el mundo. Con el tiempo fueron cambiando su modelo a uno de menos remates y más compra inmediata, y por otro lado su negocio de pagos en línea, Paypal, terminó siendo lo que realmente mantiene la empresa con vida, pero hace 10 años eso aún no ocurría.
Google, Yahoo, Amazon, eBay… son todos nombres que en los años que siguieron sonaron muy fuerte, incluso más fuerte de lo que sonaban en la era de la bonanza web. Esto es la consecuencia indirecta, y de alguna manera el aporte del reventón para dar forma a la década que siguió. Cuando todo se vino abajo, los que sobrevivieron no sólo dieron gracias de haber aguantado el chaparrón, sino que se encontraron con una WWW en la cual quedaban muy pocos jugadores realmente grandes, así que se repartieron la torta entre unos pocos, un estado que se mantuvo por más de 5 años hasta que la irrupción de los actuales gigantes (Facebook, Twitter) volvió a sacudir el escenario… pero eso, estimado público, da para otra historia.
Pág 15 de 254
(011).- Steve Jobs, perfil de un Rockstar Por Francisco Luco
No resulta fácil hablar de Steve Jobs sin inmiscuirse en lo que ha sido Apple durante todos estos años. De hecho, tal intersección resulta casi inevitable y hasta necesaria. Por más que sea sólo un hombre, y por más que haya dedicado parte importante de su tiempo a otras cosas, Steve Jobs es Apple. Y a la inversa, indiscutiblemente Apple es Steve Jobs.
Pero todo en la vida tiene un orden, y el particular relato de Steven Paul Jobs no es la excepción. En una historia que se vio marcada por eventos aparentemente insignificantes, pero que años más tarde acabarían concordando, se configuró algo realmente grande y que al final del camino ha permitido ver la gran fotografía. Se trata de “conectar los puntos”, como diría el propio Jobs.
El comienzo
Los peculiares rasgos de la vida de Jobs comenzaron a gestarse incluso antes de que naciera. Su madre, joven y soltera, había decidido darlo en adopción bajo la condición de que los padres adoptivos debían garantizarle una educación universitaria.
Los nuevos padres de Paul Steven resultaron ser una pareja de clase media (tirando para humilde) que a pesar de las dificultades económicas acabó cumpliendo su promesa. A los 17 años Steve entró a la universidad, aunque alcanzó a mantenerse allí sólo un semestre, tras verse enfrentado a sus propios cuestionamientos vocacionales y darse cuenta de que sólo estaba haciendo perder dinero a sus padres.
Poco tiempo después, no siendo más que un adolescente aún sin rumbo definido, Jobs emprendió un viaje a la India, donde experimentó un acercamiento hacia la cultura oriental y la psicodelia, lo que seguramente ayudaría a conformar parte importante de su personalidad y le atraería a la religión que profesa hasta el día de hoy –el budismo–. Como buen rebelde y genio incomprendido, tampoco hizo ascos a la experimentación alucinógena, en lo que Jobs llamaría algún día “una de las dos o tres cosas más importantes que [hizo] en [su] vida”, refiriéndose al consumo de LSD.
Años después, junto al querido Stephen Wozniak (amigo conocido tiempo atrás y con quien pasó bastante tiempo a raíz de sus intereses compartidos) se instalaron en su garaje –como todo buen emprendedor del Valle–, donde comenzaron a fabricar computadores, los cuales en realidad no eran más que tableros o circuitos electrónicos bastante simples y mucho menos sofisticados que la máquina más ordinaria en la que pudieran pensar hoy en día. A pesar de ello, su trabajo artesanal resultó ser bastante avanzado para lo que el panorama informático (dominado por la omnipresencia de IBM) ofrecía en aquella época. De hecho, el mercado de la computación personal como tal aún no existía.
Woz fabricaba y Steve, con particular capacidad de convencer, se encargaba de hacer los negocios. La incipiente empresa funcionaba, la sencilla pero exitosa computadora que habían producido reportaba algunos beneficios y había llegado la hora de profesionalizar su trabajo. Fundaron Apple y denominaron a su primer y humilde engendro Apple I.
Luego Woz se encargó de trabajar en la Apple II, primera computadora personal de la empresa comercializada a gran escala y la que catapultaría esta última hacia ligas mayores. Durante este período Apple se consolidó con el marcado liderazgo de Steve Jobs, caracterizado por muchos como excéntrico y hasta autoritario.
Cuestionamientos morales más o menos a su personalidad y a sus particulares dotes para imponer orden y disciplina, lo concreto es que para 1980, con tan sólo 25 años, Jobs ya se había hecho de un impresionante patrimonio de 200 millones de dólares.
Años más tarde vendrán los infaltables ángeles inversores y tendrá lugar, tras el fracaso que fue el lanzamiento del costoso computador personal Lisa, el nacimiento del Macintosh 128K.
Visión
Nadie podría asegurarlo con certeza (probablemente sólo el propio Jobs y alguna de las divinidades en que cree), pero pareciera que las grandes metas a las que aspiraría como proyecto personal y profesional, y la forma de aproximarse a ellas, estaban bien definidas desde un principio.
Pág 17 de 254
La impronta que el creador quiso dejar patente en su obra, y el sello distintivo que diferenciaría a esta última de IBM y el resto de la competencia existente en aquellos lejanos años, fueron muy bien determinados y probablemente hayan permanecido inalterables hasta hoy en día, concordando tales elementos, a su vez, a la perfección con la propia filosofía de Jobs.
Eficiencia, pasión por lo que se hace, belleza y simpleza (que casi o derechamente se torna en minimalismo) serían los rasgos característicos de la compañía, su imagen y cada uno de los productos –tanto de hardware como de software– que fueran manufacturados bajo el sello de la manzana. Aquel fruto debía ser sinónimo de algo único.
Para no quedarnos en palabras y en deuda con los ejemplos, tomemos el caso del primigenio Macintosh 128K. Apple parecía ser (al menos en sus inicios) una empresa enfocada a las necesidades del usuario, de manera tal que aún cuando la idea de una GUI (interfaz gráfica de usuario) no fuera original, ésta acabaría transformándose en el caballito de batalla de la marca a la hora de ofrecer su primera computadora. Así fue como Apple Computer, Inc. se ganó el mérito de llevar a cabo la primera comercialización exitosa de un dispositivo con GUI en la historia; interfaz gráfica que, por cierto, tampoco podía limitarse a ser el tránsito ordinario entre una interfaz antigua, invadida por líneas de comando, y una serie de ventanas.
A propósito de la GUI del primer computador comercial de Apple, resulta interesante sacar a colación una cuestión cuanto menos curiosa: cómo aquellos conocimientos adquiridos en la universidad y que antes podrían haber parecido baladíes terminarían siendo puestos en práctica por el CEO de la compañía años después –según él asegura–, para ser aplicados en la misma interfaz gráfica de lo que acabó convirtiéndose en el sistema operativo del Macintosh. Me refiero, en concreto, a las lecciones que el joven Jobs tomó de caligrafía y tipografía y sus esfuerzos académicos por entender qué hace a una determinada fuente un estilo de letra bello y agradable a la vista, todo lo cual derivó en una imagen confortable para el usuario.
Sin embargo aquella visión de belleza (casi de artista, como se extrae de la película Pirates of Silicon Valley) no se limitaba al software. El hardware, que integraba un manojo de cables y circuitos apenas comprensible –y por lo demás irrelevante– para el usuario común, debía estar revestido de una carcaza, una cubierta, un “empaque” que se caracterizara por ser agradable y estilizado, al menos para los estándares de diseño industrial de la época.
Y cómo no, además de ser visualmente atractivo tanto en “forma” como en “fondo”, el sistema debía ser asimismo amigable para el usuario: manejable y sencillo; dócil. Se trata de una visión de simpleza radical y distintiva, que durante las décadas siguientes evolucionaría a polos tan minimalistas que apenas podrían haberse concebido en el ideario informático algunos años antes. Sólo es cosa de recordar algunos de los mejores diseños de Mac creados por Apple (los que específicamente corresponden al diseñador
británico Jonathan Ive), como el no tan anticuado iMac de policarbonato blanco, el “G4 Cubo” o el popular G4 “lamparita”, algunos de los cuales hoy se exhiben como verdaderas piezas de colección, junto al iPod, en el Museo de Arte Moderno en Nueva York.
Jonathan Ive, iMac "lamparita" G4 y Steve Jobs.
Incluso el mismo iPod es muestra patente de la aventura de Jobs por hacer las cosas diferentes, desde un prisma quizá alternativo (imposible de haberse materializado de mejor manera que a través del mítico y decidor spot publicitario “1984″) y lo más simple posible. Mac OS X podría ser otro ejemplo de ello.
Precisamente por lo que afirmaba al principio de este artículo es que temo que se extienda en demasía, perdiéndose el foco que debe ser, en este caso, el creador.
Por ello, pasaremos revista sólo a algunos de los hitos más importantes de Apple en su historia, todos ellos impulsados siempre por su CEO.
Edad antigua
En lo que fuera la primera etapa de Apple y el primer ciclo de Jobs a la cabeza de la misma, destaca el lanzamiento del Macintosh 128K, la primera computadora comercial exitosa de Apple.
Se lanzó en 1984, tuvo una buena recepción inicial en ventas y además masificó las interfaces gráficas, junto con convertirse en el primer y último éxito del que Steve sería artífice antes de ser despedido, para luego dar paso al período oscuro de la compañía.
El iMac o el renacimiento de Apple
Para la gran mayoría es bien sabido que si Apple dejó de perder una millonada de dólares y sorteó el agujero financiero inconmensurable en el cual estaba destinada a caer, fue gracias al retorno de Jobs a la compañía de la cual hubiera sido despedido unos años atrás y que paradójicamente él mismo fundó.
Producido el reencuentro a fines de 1996, Apple comercializó en 1998 –una vez más con las innovadoras ideas de Jobs al frente– el que sería su verdadero salvavidas y renacimiento: el iMac, un computador personal destinado íntegramente al consumo doméstico y perfectamente distinguible de cualquier otra cosa que se hubiera hecho antes por sus características carcazas semi-transparentes y multicolores.
Mac OS X
Como el propio Jobs afirmara en el discurso de graduación pronunciado en Stanford, a pesar del sufrimiento provocado por uno de los episodios más traumáticos y significativos de su vida –su despido de Apple– algo no cambió en él: su pasión por lo que hacía. De manera que durante aquella década de exilio (entre 1985 y 1996), Steve fundó NeXT, empresa cuyo SO basado en UNIX acabaría siendo la base del futuro Mac OS X.
En 1996 NeXT fue comprada por Apple, Jobs volvió a la compañía que él mismo hubiera fundado junto a Steve Wozniak y comenzaron los preparativos para que Mac OS 9 pasara a mejor vida. En 2001 el competidor directo de Windows XP ya había nacido, con el consiguiente salto de una interfaz anacrónica a la nueva generación.
Pág 20 de 254
Demás está señalar que la superioridad visual caracterizó fuertemente a Mac OS X desde un principio. Y a pesar de los iniciales fallos de funcionamiento que fueron corregidos en el transcurso del tiempo con el progresivo lanzamiento de versiones posteriores (secuencia caracterizada curiosamente con nombres de felinos), Mac OS X sigue siendo la esencia de un Mac hoy en día y probablemente la única razón por la que valga la pena pagar de más.
iPod+iTunes
A pesar del exitazo que fuera Mac OS X “Cheetah”, la gran sorpresa aún estaba por venir. En el último trimestre del mismo año, Steve Jobs materializó la osada decisión de adentrarse por primera vez en una faceta del entretenimiento digital totalmente ajena a lo único que habían venido haciendo desde que la empresa fuera fundada.
El salto fue magistral. Con un genio, percepción, visión de negocios y oportunismo únicos, Steve Jobs anticipó (tras especulaciones de analistas y consumidores acerca de si la próxima jugada de Apple sería lanzar una cámara fotográfica o un teléfono) que el negocio de la música era el futuro, tanto de la compañía como en el campo de los usuarios, y que ellos debían estar ahí. Aparentemente no se equivocó.
En la keynote en que se introdujo por primera vez el iPod (el cual fue desarrollado a un ritmo vertiginoso en tan sólo 8 meses), un acertado Steve Jobs afirmó haber encontrado el estándar de la reproducción portátil de música. Ahora nos parecerá obvio, pero no lo era tanto hace 9 años, cuando el CD todavía se encontraba en pleno apogeo y el nicho era disputado por reproductores de CD, reproductores flash y discos duros que tan portátiles como ahora no eran. Jobs sabía que los formatos de audio abiertos eran lo que venía, y escogió igualmente el formato de hardware correcto, junto con sentar el estándar para los años siguientes en cuanto a reproducción musical portátil se refiere.
Eso sí, debe recalcarse que el “boom” comercial y de popularidad del iPod no tuvo lugar sino recién hasta 2004-2005. Sólo a partir de allí las ventas empezaron a incrementarse de forma brutal, y el verdadero fenómeno publicitario de los audífonos blancos comenzó a dar fruto (recomiendo profundizar en el tema viendo el documental History of iPod, pues si algo hay que reconocer es que Jobs, además de ser un privilegiado hombre de negocios, es un genio del marketing).
Punto aparte merece la apertura, en 2003, de la tienda digital de música iTunes, otra precursora en lo que le toca y una de las más preciadas gallinas productoras de huevos dorados de Apple.
Con todo, el gran mérito realizado por Steve en este aspecto fue haber masificado su marca, de manera que lo que inicialmente fue concebido como “alternativo” o “independiente” acabó convirtiéndose en un verdadero icono de la cultura pop.
Si con el iPod Apple se abrió al mercado de Windows y popularizó sus productos, la masificación definitiva y lo que probablemente acabaría provocando hasta un descenso en los estándares de manufactura de la compañía –debido a su casi incontenible crecimiento– llegó de la mano del iPhone en 2007.
A pesar de todas las limitaciones sumamente básicas existentes en un inicio (como la incapacidad de grabar video o instalar otras aplicaciones, por ejemplo), el iPhone no sólo elevó las utilidades de Apple y los valores de sus acciones a límites insospechados (salvo por el propio Jobs, quizá), sino que revitalizó y –por qué no– revolucionó la industria de la telefonía móvil, obligando a todo peso pesado del rubro que se preciara de tal a presentar su propio “iPhone killer”. Demás está decir que varios fracasaron y siguen fracasando estrepitosamente.
Evolución de la capitalización bursátil de Apple en los últimos dos años.
iPad
Por último pero no por ello menos importante, tenemos el vapuleado iPad. Según “confesó” Jobs al periodista de tecnología Walt Mossberg, la idea de lanzar un tablet fue anterior al iPhone. Sin embargo, llegada la hora de ver los resultados de laboratorio, al CEO le pareció que con todo el material disponible podrían lanzar un teléfono, por lo que el proyecto de computación personal doméstica quedó en standby en desmedro del mencionado smartphone.
Quizá sea sólo una excusa para legitimar la adaptación íntegra de iOS a una pantalla más grande sin tanta reingeniería de por medio. Sea cierto o no, el hecho es que la sola ventaja de contar con una mayor superficie se ha transformado en una virtud en mano de desarrolladores creativos, quienes una vez más acaban siendo los responsables de definir si una plataforma es exitosa o no.
Jobs con iOS apunta a mucho más de lo que podría haberse pensado en un principio. No se trata de lanzar más y más productos operando sobre el mismo sistema para no ver incrementados desmesuradamente los gastos en investigación e innovación, sino de jugársela al ciento por ciento por lo que él cree que es el futuro. En ese sentido, tanto diversos analistas de mercado como cierto sector de la propia industria parecieran estar contestes en que el futuro de la computación personal es la portabilidad y, más precisamente, el espectro móvil. Dicho aquello, la filosofía de Jobs es que quizá en un par de años cualquier usuario que necesite llevar a cabo tareas domésticas o “sencillas” acabará reemplazando su netbook, notebook e incluso PC de escritorio por algo como un iPad; pasando así al cuasi-olvido toda aquella filosofía de las ventanas, los archivos y las carpetas, e instaurándose de facto las interfaces táctiles con lo intuitivas que son.
De todas maneras, y siendo bastante francos, si aquello efectivamente llegara a darse algún día, éste parece ser algo lejano. Pero de que el iPad cuenta con el potencial para lograr en el campo de la computación personal lo mismo que consiguió el iPhone algún día en el área de la telefonía móvil, lo tiene.
Pág 23 de 254
No todo lo que brilla es oro
Más allá del holgado éxito que hayan logrado conseguir la mayoría de los productos comercializados bajo el sello de la manzana, más de alguno ha debido enfrentar alguna crítica generalizada y –en ciertos casos– sobreponerse a verdaderas controversias mediáticas.
Curiosamente, y al menos en el caso más emblemático y el único que se mencionará por ahora –el del iPhone 4 y el llamado ““antennagate”–, pareciera despertar una crítica desmedida no tanto la deficiencia técnica del producto en sí, sino cómo el mandamás de Apple intenta sortear la polémica.
Haciendo memoria tenemos que, tras haber sido revelados por Gizmodo los problemas de señal del iPhone 4, la primera respuesta de Apple, materializada a través de un correo electrónico de su máximo representante, fue “simplemente no sostengas el teléfono de esa manera”, revelándose una vez más el carácter parco y hasta arrogante del CEO.
Luego la bien conocida historia adquiere ribetes telenovelescos, donde se niega la existencia del problema, se desmiente que el e-mail supuestamente enviado por Jobs haya sido real, más tarde se reconoce que sí hay un problema de recepción y finalmente se anuncia que sólo bastaría una actualización de firmware para que el antennagate fuera cosa del pasado.
Pero la gota que rebasó el vaso fue el anuncio de Consumer Reports, en el que de plano afirmaron que no era recomendable comprar el iPhone 4. Consciente de la repercusión mediática y probablemente comercial de tal evento, Steve tuvo que dejarse de tonterías y realizar una conferencia de prensa de última hora, en la que no encontró mejor forma de afrontar el drama que encendiendo y apuntando el ventilador contra la industria de los smartphones en general (e incluso compañías y teléfonos con nombre y apellido), recurriendo a la muletilla de urgencia “por último si no le gusta, no compre o devuélvalo”, informando que Apple no era perfecta ni él tampoco, y finalmente intentando apaciguar las aguas regalando “bumpers” a todos.
Si el conflicto fue resuelto o no es otro cuento. Sin embargo, la historia no se dio por terminada con el anuncio de un programa de repartición de fundas plásticas para (casi) todos, ya que hace sólo algunas semanas se conocía la determinación de despedir a Mark Parpemaster, ex empleado de IBM, encargado de ingeniería de hardware de Apple y por ello “responsable” del diseño de la polémica antena externa del iPhone 4, convirtiéndose así en el chivo expiatorio perfecto del drama. Una vez más el peso autoritario de Jobs parecía sentirse en los pasillos de Apple.
Es importante recordar que no sólo de Apple se alimenta Steve Jobs. Si bien ésta es su magnum opus, el CEO-rockstar igualmente ha sido reconocido por su posición al frente del prestigioso estudio de animación Pixar.
Pixar fue comprada por Steve a Lucas Films en 1986, aunque en aquel entonces el estudio se llamaba The Graphics Group.
Probablemente la gran mayoría conozca la sucesión de exitosos títulos –tanto en términos de crítica como de recaudación– nacidos en los computadores de Pixar por encargo de Disney. Sin embargo, tal vez no todos estén igualmente enterados de cómo Jobs llegó a verse enfrentado con el gigante del entretenimiento, para terminar formando parte de un estamento notablemente alto dentro del mismo.
Corría el año 2003 y el contrato que había mantenido a Pixar lanzando un exitazo tras otro en compañía de Disney llegaba a su fin. Tras un fracaso en las negociaciones entre el director ejecutivo de Disney y Jobs, éste anunció que el noviazgo había terminado, de manera tal que comenzaría la búsqueda de un nuevo distribuidor apenas el contrato expirara de forma definitiva.
Sin embargo, en el último trimestre de 2005 el presidente ejecutivo de Disney fue reemplazado. El nuevo directivo reanudó las conversaciones con Jobs, y tras arreglarse las relaciones entre ambas empresas y llegar a un nuevo acuerdo, se determinó que Pixar fuera adquirida por Disney, lo que significó no sólo que en adelante la colaboración Pixar-Disney estuviere asegurada para el lanzamiento de nuevas superproducciones animadas, sino que Steve Jobs se convirtiera en miembro del directorio de Disney y en el accionista individual más poderoso, con un nada despreciable 7% de la compañía. Esta cifra supera incluso la cuota que posee el propio director ejecutivo de la compañía y la que poseía el último descendiente de la dinastía Disney involucrado en aquella.
Definitivamente se trató de otra jugada comercialmente exitosa que, además de garantizar una posición de poder privilegiada en la industria del entretenimiento, probablemente haya significado un aumento significativo de dólares en la billetera de Jobs.
Pág 25 de 254
Futuro incierto
Honrado como el hombre de negocios más importante del mundo en 2007 y CEO de la década por la prestigiosa revista Fortune, Steve Jobs es con su particular estilo, y para gusto o disgusto de muchos, uno de los personajes más importantes en la historia de la computación y la electrónica de consumo.
No entra en la lista de los magnates de la informática que forman parte de los 100 más ricos del mundo según Forbes, como sí ocurre con quienes actualmente se posicionan, por ejemplo, en el puesto #2 de dicha lista (Bill Gates), el puesto #8 (Lawrence Ellison, fundador de Oracle) o el puesto #24 (Larry Page y Sergey Brin). Sin perjuicio de ello, Steven Paul Jobs sí alcanzó a ser incorporado en la lista de los más poderosos del mundo –elaborada por la misma Forbes a fines de 2009–, donde fue ubicado en el lugar #57, detrás de algunos de los ya mencionados magnates de la informática, otros relacionados con la industria de los medios de comunicación, jeques, ministros y presidentes.
A pesar del legado que ya ha sembrado, de los miles de millones de dólares que posee y la influyente posición de poder que ostenta, para la opinión pública probablemente la vida de Steve Jobs no haya sido más que la sombra de Bill Gates, tal como la trayectoria de los Mac se ha visto siempre opacada por Windows. Sin embargo, ahora mismo el problema principal radica menos en si fue, es o será más rico o poderoso que el creador del imperio Microsoft, que en si será capaz de desligarse de una empresa que sin él se encontraría en franca decadencia. Es una paradoja en que el exceso de poder “pasa la cuenta”.
Un cáncer de páncreas estuvo cerca de llevárselo a una mejor vida (o quizá a reencarnarse, como probablemente crea el mismo Jobs), y ya fue muerto alguna vez por especuladores inescrupulosos a través de la Web. En ambos casos las acciones de Apple se han visto a la baja, y existe la percepción generalizada y probablemente correcta de que el día en que Jobs se tenga que marchar, a quien le toque emprender la titánica misión de continuar y repotenciar su legado le resultará tremendamente difícil.
Lo anterior no es otra cosa que una gran consecuencia del culto a la personalidad, de la misma manera que el nazismo fue Hitler y la revolución rusa Lenin. En una especie de caudillismo informático y financiero, el excesiva y peligrosamente carismático liderazgo de Jobs se ha terminado convirtiendo en un arma de doble filo, creando una dependencia nociva entre el sello Apple y el nombre de su CEO; todo lo cual nos lleva a la conclusión de que predecir lo que pueda ocurrir en los años que vienen sea, muy probablemente, un ejercicio de futurología más torcido e inverosímil que vaticinar los nuevos lanzamientos de Apple antes de cada keynote.
Después de todo, y al menos durante los años pasados y los que transcurren, Steve Jobs es Apple y Apple simplemente es Steve Jobs.
Pág 27 de 254
(018) Windows 95: Un botón lo inició todo Por Italo Baeza
Como muchos en ese tiempo, yo tampoco tenía una computadora cuando llegó Windows
95. Los escasos equipos, el escaso tiempo y la poca accesibilidad a éstos era una de las
causas por las que muchos no se dignaban a aprender algo de computadoras para, por lo
menos, simplificarle la vida. Pero me acuerdo, por ejemplo, que se podía hacer una tabla
en Excel para poner poner a los los equipos que estaban clasificando para Francia ‘98, o
que podrías crear una carta sin rastro de correcciones. Windows 3.11 en ese tiempo era
conocido pero no por todos, en las sombras cocinaba a la gente que tenía acceso a uno al
igual que algunos Macintosh para ser fiel.
Y cuando llegó Windows 95, definitivamente se sintió el remezón. Particularmente
hablando, la interfaz había sido algo más simple y colorida, y cualquiera que podía
actualizar su equipo a esta versión de Windows quedaba asombrado – después de
mamarse varios cambios de disquete en algunos casos – especialmente por la facilidad de
uso y la gran evolución que tuvo el no-sé-por-dónde-empezar Windows 3.1. Quien tenía el
Pág 28 de 254
dinero ya era un hecho que su computadora aguantaba y si no compraban otra, y quienes
nunca tuvieron la posibilidad tendrían que esperar años para saber qué sucedió aquí.
Por alguna razón empecé a ver más gente metida en una computadora para hacer cosas
que en la realidad les tomaría más tiempo, dejando de lado la maña de aprender a escribir
con el teclado. Cartas, documentos, pruebas y exámenes, invitaciones, tareas, etcétera.
Después de ese año empecé a ver muchas más cosas hechas en una computadora, y por
supuesto muchos niños jugando en sus equipos que, además de correr Sonic & Knucles 3,
servían para todo lo demás. Aún recuerdo esos días emulando juegos Pokémon Red con
REW, intercambiando disquetes con más juegos o rabeando con MDK porque no nos
funcionaba en algunas computadoras del colegio. Antes de 1995, sólo veíamos
computadoras en las películas, y el papel que desempeñaban era simple: había que
destruirlas sino terminaríamos con una Inteligencia Artificial amenazando la supervivencia
de la humanidad y viajando en el tiempo para evitarlo.
Pero claro, a nosotros nos importaba un comino, sólo le dábamos al botón “Inicio” y luego
planeábamos qué íbamos a hacer, no antes.
Hola botón Inicio
Antes de Windows 3.11 el mundo era poco menos que colorido, a 256 colores como el
mejor de los casos. Pero el paso a los 16 bit de color fue bastante notorio. Sumado a eso la
máquina de publicidad que Microsoft realizó para Windows 95, y los cambios bastante
grandes en la interfaz, terminó todo por apuntar a un bendito botón Inicio. Y sí, se merece
la mayúscula en la primera letra.
Pág 29 de 254
La primera vez que uno de mis compañeros puso el cursor frente a ese botón fue algo así
como cuando comemos por primera vez una comida que nos aparenta mala. ¿A quién no
le ha pasado eso? Por lo menos mi madre me dijo “¿Cómo puedes saber que está malo si
no lo has probado?”. El miedo a lo desconocido era evidente, pero las Clases de
Computación en el colegio eran para aprender, y si terminaba por explotar la sala,
terminaríamos con echarle la culpa a las niñas. Al presionarlo, quedamos más perdidos
que de costumbre, pero un rato más tarde, ya teníamos permiso para borrar toda la
carpeta C:\Windows\. Por cierto, NO LO HAGAN.
El funcionamiento de ese menú era tan simple, que lentamente se transformó en un icono
de la computación moderna. Desde abrir programas hasta buscar aquellos archivos que
alguna vez se perdieron, o abrir un nuevo documento de Microsoft Office sin abrir
ventana tras ventana; todo en su lugar y como debía estar organizado. Todo era
fácilmente encontrable, nada más de dar vuelta en ventanas de ventanas de ventanas de
ventanas como solía suceder. Y su funcionamiento no ha recibido muchos cambios de raíz,
sigue siendo el primer lugar donde ir cuando quieres hacer algo, al que tuvieses el acceso
directo al Escritorio.
Pág 30 de 254
Ahora esto es multitarea
Dicen que el ser humano es un ser multitarea por naturaleza, que sólo ocupa el 3% de su
capacidad cerebral mientras el resto se va en puras tareas secundarias, que mi abuela
puede hacer el almuerzo mientras habla por teléfono y le saca brillo al piso de la cocina,
etcétera. Pero eso era una vil mentira antes de Windows 95, muy pocas personas
lograban dominar la Calculadora y Wordpad al mismo tiempo sin que se les perdiera una
de ambas, especialmente al minimizarlas. También era ese tipo de usuario que copiaba el
acceso directo de “Internet” al disquete y luego le decía a los compañeros que tenía la
Internet en un disquete para poder navegar donde quisiera, y que colocaba el CD al revés.
Creo que yo era el único que podía hacer esto.
Pero la siempre visible barra de tareas solucionó ese maldito problema. Cada programa
abierto tenía su espacio en la barra que compartía con el menú inicio. Los programas no
se cerraban por arte de magia, siempre estaban ahí de forma visible esperando que
hicieras clic en él. Definitivamente eso trajo un flujo de trabajo mucho más entendible
para aquellos que tenían el drama anterior.
Pág 31 de 254
En segundo plano
La barra de notificaciones nació para quedarse. Así como inconscientemente
respirábamos, podíamos ver con certeza procesos y programas en segundo plano sin
tener que preocuparnos de ellos, al menos, al ver la hora. Evidentemente nadie sabía que
un programa podía correr en segundo plano, o dejarlo así para que no molestara por un
buen rato. Nunca en mi vida vi a alguien colocar música mientras escribía algún
documento, hasta que en Windows 95 el Reproductor de CD – que ya estaba hace rato en
las versiones anteriores – y Winamp se hicieron más conocidos y combinables con algún
otro programa minimizado.
Lo genial, por lo menos después de algunos años, fue la posibilidad de usar un espacio
mínimo para connotar algún programa corriendo atrás de todo, sin molestar a nadie, pero
en memoria al fin y al cabo. El control de volumen era muy útil cuando queríamos
escuchar algo a nivel normal porque algún mandril se lo dio todo antes que tú, o bien, ese
ícono con la agenda que nos programaba cosas para hacer en cierto momento sin tener
que atender la computadora en ese momento. ¿Alguien dijo… “Defragmentador de
disco”?
Bienvenido sea DirectX.
Les puedo comentar las gracias que nos permitió jugar DirectDraw y Direct3D. En ese
tiempo, tener una tarjeta aceleradora de gráficas, cualquier cosa infinitamente más cara
que una Trident VGA de 8MB, daba para cualquier juego en MS-DOS incluyendo
Wolfenstein 3D. Pero cuando cuando DirectX apareció, y muchos de nosotros ni idea para
qué era, los videojuegos empezaron a transformarse en entretenimientos más avanzados.
El ejemplo clásico fue FIFA 96, donde por primera vez en mi corta existencia logré jugar un
juego de fútbol casi de verdad. La gracia era “Virtual Stadium” la tecnología hacía el
estadio y la cancha en un lugar de tres dimensiones en vez de una textura más detrás de
los jugadores. Hubo otros juegos más que crearon un mundo más llamativo, como MDK y
otros juegos que llegaron años más tarde.
Casi todos los desarrolladores hacían juegos pensando en gráficas VESA y Creative
SoundBlaster, algo así como los estándares elegidos por ellos para sus videojuegos. Esto
demostraba no sólo que no había estándar impuesto, sino también a que los mismos
tenías que programar para cada hardware en específico en muchos casos. Con la llegada
de DirectX, los programadores escribían para este API y sería el mismo quien lidiaría con el
Hardware, mientras los fabricantes actualizaban los controladores para su hardware y
DirectX.
Pág 32 de 254
Caso aparte: Internet Explorer
Internet, en esos años, era tan difícil de acceder como llamar por teléfono celular, la
televisión con sonido surround, y la PlayStation. Pero con la inclusión de Internet Explorer,
varios usuarios que tenían acceso a ese lugar virtual se encontraron con una nueva opción
para mirar la red además de Netscape. Igual se agradecía que existieran dos Accesos
Directos para Internet y Bandeja de Entrada en el Escritorio, y aunque la gran mayoría de
la población que no tenía Internet nunca supiese para qué servía, igual se merece una
mención por intentarlo.
La piedra en el zapato: MS-DOS y BSOD
Yo también pensaba que Windows 95 se parecía más a una GUI por encima de MS-DOS
que un sistema operativo grande, algo un poco más evidente con Windows 3.x, pero eso
dejó de caer en evidencia cuando MS-DOS pasó a ser a la vista como otro programa más
dentro del menú inicio, y quizás fue todo lo que bastó para que la gente pudiese entender
que la computación era más fácil una línea de comandos olvidándose de él. Como las
cámaras point-n-shoot, aquí era point-n-click. De todas maneras este sistema sólo se
preocupaba de arrancar Windows 95, quien después de cargado se hacía cargo de MS-
DOS dentro de él.
Esa piedra en el zapato seguía vivo, pero era necesario en esos momentos porque habían
muchas aplicaciones en 16-bit dando vuelta y que sólo andaban dentro de una ventana de
Pág 33 de 254
MS-DOS – menos mal casi todas funcionaban sin problema. Microsoft supo hacerla bien, y
con los 32-bit de acceso y LFN logró que dejásemos de lidiar más con “Comple~1.doc”.
Ahora sí podías guardar archivos con más de 8 letras – hasta un máximo de 255 – sin
confundirte entre dos que comenzaban igual, pero sólo en Windows. No había forma de
explicarle a un ser humano porqué no podía encontrar su archivo “Canción de cuna.wav”
en MS-DOS o Windows 3.11, pero menos mal Windows 95 dejó muy claro que si le ponías
el nombre a algo, con certeza lo encontrarás bajo el mismo nombre. Ahora ser secretaria
con muchos documentos era más fácil, por lo menos, era lo que decía una madre de mis
amigas cuando el jefe le compró una computadora nueva (ni idea si pagó en carne… con
algún asado).
No saques el CD mientras un programa lo está leyendo
La principal crítica de Windows 95 era que al principio era bastante inestable. Alegaba por
absolutamente todo, hasta por el mas mínimo error teníamos dos opciones: o
reseteábamos el sistema o esperábamos a que el programa culpable terminase de
trabajar. CTRL+ALT+SUPR se
hizo muy amigo de muchos,
y con la ventaja de finalizar
esas tareas que no
respondían, todavía
teníamos opción para no
desestabilizar el sistema,
pero al final de todo, si
Windows no podía leer el
disco, igual te tiraría el
pantallazo azul de la muerte.
Hasta por los disquetes que
se leían mal.
En ese tiempo los consumidores finales, esos usuarios que armaban sus propias
computadoras, tendrían que lidiar con la inestabilidad. Pero los OEMs eran gente
importante para Microsoft, y les tiró 5 versiones de Windows 95, además del famoso
“Plus!”, a estos tipos durante los siguientes 2 años. Menos mal hubo gente que supo la
artimaña y se conseguía esos discos con apellido “OSR” para colocarlos en su
computadora. De hecho, yo recuerdo haber tenido una versión OSR después que la
anterior instalación de Windows 95 cayera en la desdicha de Scandisk.
Pág 34 de 254
Yo jugaba con el autoexec.bat
MS-DOS no es malo, pero menos mal, en ese tiempo casi todos los juegos que me
gustaban eran basados en ese sistema que en Win32. Un día estaba leyendo la Encarta 97
en mi computadora, y sucedió un corte de electricidad en toda mi población. Después de
restaurada, y con las ganas de seguir donde me había quedado, lo prendí de nuevo para
que ScanDisk me avisara que revisaría el disco por errores. Dicho y hecho, no me
preocupé por nada y esperé… esperé… y esperé.
Resultado: Toda la carpeta C:\Windows\System estaba mala, y como scandisk es de esos
chicos porfiados que cree saber qué hace pero en realidad no, terminó por tomar todos
esos archivos y dejarlos en la raíz con un formato irreconocible hasta ese entonces, entre
ellos, “win.com”, el programa que inicia Windows. Nunca más pude iniciar el sistema
operativo, por lo que tuve que vivir varios meses con MS-DOS: dir, attrib, deltree, copy,
edit, echo off, format, todos ellos fueron mis amigos, y como sólo funcionaban los juegos,
edité el autoexec.bat para saltar inmediatamente a esos programas. Vamos… ¿Quién no lo
ha hecho?
Mirabas feo a Windows 95 y se caía, eso era cierto, pero menos mal, luego que mi viejo
desembolsara USD$70,11 para que lo repararan, además de ganarme un buen sermón de
cosas que ni si quera él podía entender, una versión de Windows OSR llegó – creo haberlo
escuchado del mismo técnico – a mi computadora, que se terminó por comportar mucho
mejor que antes. El único reparo que tenía era que se les había olvidado formatear el
disco, así que me encontré borrando esos archivos rotos del C:\ que siempre pensé que
servirían para algo, y por ese dinero, ahora pienso que era lo mínimo que pudieron haber
hecho.
Pág 35 de 254
¿Algo ha cambiado?
Durante unas vacaciones de verano llevé a mi familia a una tienda especializada en Mac,
para mostrarles que habían computadoras algo más fáciles de usar. Eventualmente me
encontré con la inevitable pregunta… “¿Dónde está el botón inicio?”. Luego de eso, los
acompañé hacia afuera, mientras pensaba que en realidad, nada ha cambiado durante los
últimos años en Windows.
La forma de trabajo del sistema operativo sigue siendo esencialmente el mismo, eso sí con
todas las actualizaciones por debajo necesarias con las posibilidades nuevas que el
hardware ha creado. Creo que la frase justa para definir lo que dejó Windows 95 es
“cambio drástico”, en pro de dejar al usuario con una percepción mucho más amigable del
equipo. Desde ahí en adelante todo terminó por evolucionar naturalmente la interfaz y el
resto del software.
Es simpático que una barra gris en el fondo de la pantalla haya instaurado las bases de la
computación moderna hace 15 años y sólo recibido cambios cosméticos en las versiones
siguientes. Windows 98, Windows ME, Windows NT, Windows XP, Vista y 7: Ninguno de
ellos ha decido matar al Botón Inicio ni su funcionamiento primordial, menos cómo
funcionan las ventanas y cómo percibimos el funcionamiento de los programas.
Windows sigue siendo lo mismo de hace 15 años, y tampoco espero a que cambie. El
único pretexto que tendría Microsoft para mostrar un Windows distinto sería con la
llegada del multi-touch y 3D, o que misteriosamente todos los ratones y teclados del
mundo se quemaran simultáneamente.
Pág 36 de 254
(025) El Legado de Palo Alto Reseach Center de Xerox Por Francisco Bravo
Quien copia a copión tiene cien años de perdón… Un refrán que acabo de parafrasear
pero que refleja la realidad en la industria de la tecnología de la información (y
seguramente todas las
ramas conocidas del
quehacer humano). Toda
creación buena,
sobresaliente o exitosa en el
ámbito comercial es
copiada tarde o temprano.
Muchas veces quién creó el
producto no ve ni un
centavo por concepto de
éste pues llegó alguien, vio
los defectos del producto,
las quejas de los clientes y
lo mejoró basándose en
aquél ‘feedback’.
Si hiciéramos un parangón
entre una sala de clase de
primaria con la industria en
Silicon Valley, Xerox sería el
nerd del curso, mientras
que Microsoft y Apple
serían los matones que
copian en los exámenes de
estos nerds. Muchas veces
los matones quedan en los
anaqueles de la historia y
los nerds son olvidados.
Xerox Alto, primera computadora personal
Si algo podemos decir en favor de estos ‘matones’ es que tuvieron la visión de llevar estos
inventos a niveles comerciales con un éxito aplastante, la incapacidad de Xerox de
Pág 37 de 254
cristalizar estos grandes inventos en productos comercialmente rentables es evidente. Por
otro lado la misión del PARC nunca fue, aunque no necesariamente se descarta, pero
ciertamente no era lo principal, crear grandes riquezas de sus inventos, sino más bien
crear avances que pudiesen servir a la compañía y, por qué no, a la humanidad entera en
el futuro. Simplemente la plana ejecutiva, los ‘peces gordos’ de Xerox, estuvieron
sentados por años sobre aquellos inventos, y a pesar de todos los intentos de los
ingenieros del PARC por explicarles el éxito que podían llegar a ser, simplemente no lo
comprendían. Y por supuesto llegaron los ‘matones’ y se llevaron el pastel.
Un legado que no puede quedar en el olvido
El PARC o Palo Alto Research Center, con sede en Palo Alto, California, Estados Unidos, es
una compañía de investigación y co-desarrollo fundada el año 1970 por Xerox Corporation
bajo la dirección del Dr. George Pake, como una división más luego del bullante éxito de
Xerox por esos días.
Pág 38 de 254
Xerox Star, primer computador personal con sistema gráfico y mouse
El PARC pasó a la historia y es recordado, razón principal de esta nota a modo de
homenaje, como el centro de investigación de tecnologías de la información y sistemas de
hardware más prolífico de todos los tiempos.
De él nacieron avances tan importantes como la electrónica y el software para la
impresión láser, desde donde John Warnock y Chuck Geschke pudieron basarse para
posteriormente fundar Adobe Systems en 1982; la tecnología Ethernet (creada en
conjunto con Intel y Digital Equipment) y una incipiente “Internet” que conectaba esta
Ethernet a ARPAnet utilizando PUP (PARC Universal Protocol), precursor del TCP/IP; el
computador personal moderno tal como lo conocemos hoy gracias al ‘Alto’; se utilizó por
primera vez el teclado y el mouse como mecanismo de control principal del computador
(en la Xerox Star); la interfaz gráfica de usuario (GUI) incluyendo íconos y las primeras
ventanas “pop-ups”; Smalltalk, precursor de lenguajes de programación orientada a
objetos tales como C++ y Java; el primer procesador de texto de interfaz amigable
(WYSIWYG) de la historia, Bravo y Tioga, que Charles Simonyi tomó como base y se lo llevó
a Microsoft para desarrollar Microsoft Word; el primer chip gráfico 3D (“Geometry
Engine”) para computadora, creado por James Clark, profesor de la Universidad de
Stanford, usando principios ideados en el PARC para posteriormente fundar Silicon
Graphics (SGI) en 1982, gracias a lo cual años después nacieron películas como Jurassic
Park y la hilarante Toy Story; la tecnología de almacenamiento en dispositivos magneto-
óptico, creado especialmente para el Alto; entre muchos otros.
El paraíso para la creatividad
Esta historia no estaría completa sin un personaje clave, Bob Taylor, gran responsable del
temprano éxito del PARC siendo administrador del Computer Science Laboratory (CSL)
(1970–83), posterior fundador y adminsitrador de Digital Equipment Corporation’s
Systems Research Center (SRC) (1983–96), sí, la misma Digital Equipment que ayudó a
crear la tecnología Ethernet junto con Intel. Para darles una idea de los pensamientos de
Taylor, éste creía que “La Internet no se trata de tecnología; es sobre la comunicación.
Internet conecta a las personas que comparten los mismos gustos, necesidades, intereses e
ideas, sin importar la ubicación geográfica”. Todo un visionario, ¿no lo creen?
Para que entendamos la época en que esto se desarrolló debemos entender la explosión
de creatividad de la época. Según explican algunos empleados de Xerox el año 1996 en un
documental creado por PBS.org, “Triumph of the Nerds”, – donde se relata la turbulenta
historia de esos años donde los nerds triunfaron y muchos se hicieron millonarios, Bill
Gates, Steve Jobs, Paul Allen, Steve Ballmer, entre muchos otros – , una vez que la
El 24 de Enero, Apple Computer presentará Macintosh. Y verás porque 1984 no será como
1984
Era una simple pero poderosa frase que se metió en las cabezas de muchos durante el
medio tiempo del Super Bowl XVIII de 1984, y hasta el día de hoy, dicha frase resuena en
la cabeza de muchos al marcar el comienzo de la computación personal tal y como la
conocemos, gracias a la introducción del primer computador personal destinado al hogar
y que incluiría Interfaz Gráfica de Usuario (GUI).
Aquel 24 de Enero, Steve Jobs subió al escenario para sacar desde un misterioso bolso gris
lo que todo el publico esperaba: Apple Macintosh, no tenía número de modelo,
simplemente era Macintosh, posteriormente se le agrego el apellido de 128K con la salida
de nuevos modelos como Macintosh 512K.
Nacimiento
Aunque Macintosh fue estrenado al público en 1984, podemos decir que su nacimiento
data de los años 70 y no específicamente en los cuarteles de Apple.
Pág 74 de 254
La idea original de la Interfaz Gráfica de Usuario, al igual que el mouse que acompaño al
Apple Macintosh, tuvo su génesis en Palo Alto Research Center (PARC), donde los
ingenieros de Xerox desarrollaban tecnología que pensaban estaba muy adelantada para
la época. Durante esos años, Xerox estaba muy interesada en invertir en Apple gracias al
gran éxito de sus anteriores computadores, por lo que dejaron que los ingenieros de la
manzana tuvieran acceso exclusivo a dicha tecnología.
Steve Jobs, impresionado por lo visto en PARC, ordenó a sus ingenieros trabajar en un
proyecto llamado Lisa, que se basaría en el sistema operativo gráfico “Alto GUI”. Tiempo
más tarde, Apple Lisa se convirtió en el primer computador en poseer una interfaz gráfica
(System 0.8.5), lamentablemente fue un rotundo fracaso por el elevado precio
(USD$9.995) que los altos ejecutivos de principios de los 80 no estuvieron dispuestos a
pagar y optaron por la opción más económica, los IBM PC.
Mientras Apple Lisa se venía al suelo, un pequeño proyecto – sin importancia en ese
tiempo – estaba tomando forma, su nombre era Macintosh. Jobs decidió enfocar todos
sus esfuerzos en sacar aquel “pequeño” proyecto adelante y comenzó a tomar ideas
“prestadas” del equipo de Lisa para Macintosh, y esto lo confirma el co-autor del sistema
de escritorio Finder:
Mucha gente piensa que nosotros lo robamos a Xerox. Pero en realidad, lo robamos de
Lisa
Pág 75 de 254
Comienza la revolución
En 1984, la computación personal se resumía a trabajar en estrechas pantallas y a ingresar
una serie de línea de comando, por lo que era necesario dejar en claro el potencial de
Macintosh desde un principio, y que mejor que reproducir un video. Macintosh
fue concebido para tener un importante rendimiento multimedia y al mismo tiempo que
pudiera ser accesible para la clase media, todo un reto si pensamos que el hardware para
lograrlo podría haber elevado el precio de Macintosh de USD$2.495 a más de
USD$10.000.
Hasta el día de hoy existe el mito de que los diseñadores sólo trabajan con equipos Mac,
esto se debe en cierta forma a la introducción del primer Macintosh, que gracias al nuevo
sistema operativo gráfico hacia la vida más fácil a todo profesional que trabajara con
publicaciones, procesamiento de texto, fuentes y arte en general. Macintosh incluía el
sistema operativo System 1.0 y Finder 1.0, este último era el principal responsable de
la interacción visual entre el usuario y el sistema operativo. Finder también fue el primero
en introducir el concepto de “Papelera”, donde se arrastraban archivos hasta dicha
Pág 76 de 254
“carpeta” para que estos quedarán eliminados. El sistema operativo incluía una serie de
aplicaciones gráficas muy interesantes, como: MacPaint, MacWrite, MacProject y
Microsoft Word, pero no todo era hogar y diseñadores, los desarrolladores también
tenían su espacio con herramientas como MacBASIC o MacPascal.
Los computadores de la época funcionaban de manera muy simple, las
fuentes consistía en un único carácter formado por una matriz de puntos, nada de recrear
formas para cada letra. Con la introducción de Macintosh, los sistemas se volvieron cada
vez más complejos, y era necesario cargar varias funciones en memoria, como por
ejemplo: fuentes de sistema, formas de iconos, ventanas, fuentes especiales, Finder y el
sistema operativo. El nuevo aspecto visual de Macintosh no sería gratuito, y
la revolución gráfica tendría que pagar un precio en preciados kilobytes de RAM.
Pág 77 de 254
Ventanas
Hoy en día, mover una ventana a través del escritorio es algo tan trivial cómo hacer click
en un icono y abrir un menú, pero ¿cómo aprendieron las personas a utilizar la primera
Interfaz Gráfica de Usuario?. Con cada Macintosh 128K que Apple vendía, se incluía un
manual bastante extenso que debía explicar conceptos más básicos sobre el uso del
mouse, teclado y como estos interactuaban en la pantalla. Por ejemplo, era necesario
describir en detalle sobre el concepto de ventanas, el manual decía lo siguiente:
Las ventanas representan información. Puedes tener múltiples ventanas en tu escritorio,
de ese modo puedes ver más de un conjunto de información al mismo tiempo.
La mayoría de las ventanas se pueden mover, cambiar tamaño, desplazarse o cerrar. Ellas
se pueden sobreponer. Cuando más de una ventana está abierta, una está al frente, y es
donde toda la acciones suceden. Haciendo click en cualquier parte de una ventana ésta
vuelve al frente, o se hace tan pequeña que no la puedes ver (minimizar)
Pág 78 de 254
Hardware
En aquellos tiempos, contar con una unidad destinada exclusivamente para
almacenamiento era prácticamente una locura, donde un disco duro de 10MB podría
costar varios cientos de dólares, por lo que había que encontrar una solución al gran
consumo de memoria que provocaba tener una interfaz gráfica.
La eficiencia era la principal prioridad para el equipo Macintosh, quienes decidieron
desarrollar varias funciones del sistema operativo en lenguaje de máquina y las
almacenaban en un chip ROM (64 kb) para evitar cargar la totalidad del sistema operativo
en los escasos 128 kb de RAM. Sin embargo, con estos 192 kb no alcanzaba para correr
todas las aplicaciones incluidas en System 1.0 y Finder, por lo que el Macintosh fue dotado
Pág 79 de 254
de una unidad floppy de 3.5” con capacidad para almacenar 400 kb (el doble de los discos
IBM PC). Para correr el primer Mac OS, era necesario insertar el disco floppy y cargar parte
del sistema operativo en RAM para posteriormente ejecutar otras aplicaciones desde él,
aunque era posible ejectar el disco de inicio para cargar otro, dejando al sistema con lo
más básico.
El corazón de Apple Macintosh era nada menos que un procesador Motorola 68000 (32-
bit) con frecuencia de 8 MHz lo que equivalía a 0.7 MIPS en rendimiento, conectado por
un bus de 16-bit a los 128 kb de DRAM y sin posibilidad de actualizar. Como cada byte
cuenta, en el primer Macintosh 22 kb eran destinados al framebuffer del controlador de
video DMA.
Pág 80 de 254
Otro de los grandes hitos del primer computador personal de Apple, fue su pantalla CRT
de 9” monocromática 512 x 342 píxeles, que marcó el estándar de edición electrónica en
72 PPI. Mouse y Teclado también fueron incluidos en Apple Macintosh, a pesar de que en
Apple Lisa no tuvo el éxito esperado.
Diseño
La compañía de la manzana siempre se ha preocupado por el aspecto físico de sus equipos
más allá del hardware, y Macintosh no fue la excepción. Al momento de comenzar a
desarrollar la nueva apuesta de Apple – luego del desastre que fue Lisa – Steve Jobs
Pág 81 de 254
encargo a sus ingenieros aprender de los errores del pasado y asegurar un diseño
amigable para los usuarios, que serían personas comunes y corrientes.
El diseño estuvo guiado personalmente por Steve junto a Terry Oyama y Jerry Manock,
aunque posteriormente Oyama confesara:
A pesar de que Steve no dibujo ninguna de las lineas, sus ideas e inspiración hizo el diseño
lo que es. Para ser honesto, nosotros no sabíamos lo que significaba un computador
amigable hasta que Steve nos dijo.
Reunir todo el equipo y pantalla en el mismo case, utilizar tan sólo 3 cables (incluido el de
energía) eran algunos de los requisitos que debía tener el Apple Macintosh.
Cierre
El Apple Macintosh original, fue el computador encargado de revolucionar la
industria tecnológica y al mismo tiempo convencer que usuarios comunes y
corrientes podían tener acceso a estos terminales gracias a su increíble sistema operativo
con interfaz gráfica, y hardware económico para la época que no necesitó de grandes
cantidades de memoria para funcionar. Estos dos hitos abrieron paso a nuevos productos
y a una acelerada competencia entre Apple e IBM por estar presentes en cada hogar con
un computador personal y no sólo en las manos de los altos ejecutivos de las empresas.
Pág 82 de 254
(067) Cuando llegó el puerto AGP al mundo Por Italo Baeza
Había una vez, un puerto PCI
Durante los años 90, cualquier tarjeta que querías conectar al equipo sólo tenía sólo dos
destinos: los puertos ISA que estaban en decadencia y los PCI, su natural reemplazo.
Desde unas gráficas nuevas, pasando por las tarjetas de red, módems, y otras más, era
posible conectar a los universales PCI de 32bit. Y nadie alegaba nada – tampoco había
porqué hacerlo, no había una razón para pensar en otro estándar. ¿Acaso esa tarjeta de
red iba a transferir 100GB de un soplón?
Wikipedia (GNU)
Todo seguía su curso normal, el sol salía por el lado contrario donde se escondía, el
módem no superaba los 56Kbps, todos tenían televisión a color y las tarjetas de sonido
con suerte tenían una salida estéreo y dos entradas. En cambio, las tarjetas gráficas
empezaron a tener algunos cambios arquitectónicos y tener hambre de polígonos. Sólo en
1996 el mercado empezó a migrar al puerto AGP, que sería la solución a todos los
problemas que PCI traía en ese aspecto. Tal como en Chile hubo un revuelo nacional al
Pág 83 de 254
aumentar la velocidad máxima para andar por carretera a razón de los autos más rápidos
y más seguros, el problema no se aleja de algo semejante por el lado de la informática.
Dedicación
El puerto PCI tiene un ancho de banda máximo de 133MB por segundo para transferir
datos, lo que podríamos compararlo con rellenar un CD en unos 6 segundos más o menos,
sin contar con el resto de limitaciones naturales. Suena rápido, pero lo que es malo de
esta tecnología es que todos los puertos PCI comparten una misma línea y un mismo bus,
y para un mercado de chips gráficos que ya estaban apunto de sobrepasar lo que permitía
el mismo, que querían más ancho de banda para comunicarse con el sistema, y querían
relacionarse más directamente con la CPU y RAM, no había cabida; eventualmente
empezarían a topar con el ancho de banda de otros dispositivos. Para rematar, la memoria
de video era cara de implementar en el PCB y tendía a bastar sólo para la información 2D.
8MB de memoria en una tarjeta de video era bastante pero no lo suficiente para afrontar
gráficas 3D a todo dar.
Entonces nació AGP como la solución a esas demandas.
Pág 84 de 254
Adiós cuello de botella, por ahora
Intel decidió crear en sus laboratorios el puerto AGP en 1996, que debutó en el
antiquísimo Socket 7, el encargado de ser el pilar base de los Pentium II. Para hacer al AGP
más que un puerto con un bus dedicado, en términos técnicos, existían 6 ventajas netas
sobre el PCI:
• Pipelining (Paralización): El bus PCI sólo permitía una instrucción para enviar, dejando a las otras esperando para ser enviadas o recibidas, lo que significaba muchos tiempos muertos y rendimiento mermado. El puerto AGP podía agrupar estas instrucciones y llevar a cabo varias al mismo tiempo. En peras y manzanas, mientras al bus PCI llegaba la instrucción “3 x 9 + 5 – 8″, el puerto AGP recibía “(3 x 9)”, “(5-8)” y “Suma el resultado de ambas”.
• DIME: No, no te lo digo. Jojojo, qué bromista soy. DIME es el corto de “Direct Memory Execute”, y fue una gran característica que el bus PCI no podía igualar. Esto permitía que la tarjeta de video pudiese ocupar parte de la RAM del equipo – determinada por la opción “AGP Aperture Size” – para manejar texturas mientras el CPU también podía interactuar en esa zona. Con ello también llegó el GART, Graphics Address Remapping Table, que se encargaba de hacer una especie de mapa para que la tarjeta AGP no se perdiera entre tanta memoria.
• Sideband Addressing: El bus AGP, en conjunto con el controlador del chip gráfico, tenía la capacidad de separar 8 líneas para manejar sólo las direcciones de
Pág 85 de 254
memoria, dejando al resto del bus manejando los datos, asincrónicamente. El ejemplo clásico es del aprendiz de cocina: con una mano sostienes la hoja con los ingredientes y la preparación, mientras que con la otra mano revuelves la comida de una olla. Práctico ¿no?
• Más ancho de banda: La guinda de la torta. Gracias a tener un bus dedicado, y trabajar a 66MHz, el doble de lo que permitía el bus PCI, AGP podía llegar a transferir 266MB por segundo a 32 bits, mientras que PCI sólo llegaba a 133MB en el mejor de los momentos, con los planetas alineados y un doble arco iris en tu patio.
La industria con el pulgar arriba
El apoyo se hizo unánime, especialmente por los fabricantes de tarjetas gráficas. Aún
cuando Intel era el creador, los primeros chipset encargados de llevar el puerto AGP
encima eran VIA Apollo VP3, SiS 5591/5592, y ALI Aladdin V, que salieron primero de la
mano de fabricantes como FIC – que ya nadie escucha – y EPoX – que tampoco nadie
escucha. Por lo menos eso es lo que está documentado, en mi caso personal nunca vi una
tarjeta AGP hasta entrado el 1999 en el mercado chileno, caracterizado por siempre estar
a la vanguardia de la tecnología cuando: las cosas están apunto de morir, ya pasaron de
moda, están baratas o se pueden vender al doble de lo que cuestan sin que nadie alegue.
Signo de ésto fue cuando empezamos a ver este tipo de productos en multitiendas (donde
también compras ropa) y servicios técnicos truchos que mostraban orgullosamente en la
ventana esa tarjeta de sonido 5.1 marca chancho. Ahí tienen un Momento Bicentenario.
Pág 86 de 254
ATI Rage 128 AGP, qué días aquellos... - Wikipedia (CC)
Por otra parte, los fabricantes de tarjetas gráficas de ese entonces tenían dos opciones si
querían subir al barco: o tomaban un chip gráfico ya hecho para PCI y sólo modificaban su
compatibilidad con el bus a 66MHz – lo que era mucho más barato y rápido pero no
aseguraba un gran rendimiento – o simplemente se daban el trabajo de crear un chip que
aprovechara todas las ventajas del puerto AGP. Aquellas tarjetas que sólo se cambiaron de
camiseta fueron la 3dfx Voodoo Banshee, Matrox Millenium II y la S3 ViRGE GX/2,
mientras que NVIDIA ponía sobre el tapete RIVA 128 y ATI hacía lo suyo con la 3D Rage
Pro, ambas aprovechando lo que AGP prometía.
Para el caso del omnipotente Windows 95, sólo la versión OSR2.1 llegó para permitir la
compatibilidad con AGP y USB, al mismo tiempo que se emitía un parche para la versión
OSR2.0, todo a mediados de 1997. Perfecto timing para disfrutar el juego de FIFA Francia
‘98 a buena calidad en tu computadora con AGP más cercana.
Pág 87 de 254
Más que PCI
Los benchmarks no se hicieron esperar para demostrar que AGP había llegado para
quedarse. Pero no muchos tendrían la dicha de un mejor rendimiento por el sólo hecho de
cambiar a una plataforma con un puerto AGP, porque dependiendo de algunos factores, el
poder del nuevo puerto era sólo apreciable a grandes resoluciones y con grandes
cantidades de datos.
Veamos el lado extremista de la vida. Intel hizo una prueba entre entre ambos estándares,
dejando claro que PCI ya no era viable.
Pág 88 de 254
Pero lo que ustedes no saben, es que para esa prueba usaron una escena donde las
texturas que se movían llegaban a los 6MB. La ventaja del AGP, para leer directamente
desde la memoria del sistema, es algo que el PCI no puede replicar y con justa razón
rendía tan poco. El cambio era relativamente inapreciable ante una pantalla pequeña,
pero con resoluciones mayores, y con más datos andando en el bus, el cambio de PCI a
AGP se percibió mucho mejor. ¿O acaso alguien conecta su Atari 2600 a su televisión
FullHD en estos tiempos?
Cambiar de estándar es un dolor en el trasero – especialmente al principio – pero tarde o
temprano habrá que hacerlo. Menos mal, el mareo de un nuevo estándar, con productos
que podrían ser mejor pero técnicamente están “por ahí”, se olvidan después que la
tecnología madura.
¡AGP está evolucionando!
La transferencia de datos que demandaban las tarjetas
gráficas empezaron a crecer, por lo que el AGP 1.0
empezó lentamente a ceder hasta que una nueva versión
apareció para mejorar el eventual cuello de botella. La
filosofía de esta actualización era mantener en cierto
grado la retrocompatibilidad con los modelos antiguos: a
nadie le gusta tener que comprar placa madre nueva,
procesador nuevo, y tarjeta de video nueva por unos
míseros megahertzios más al menos que tu patio sea una
refinería de petróleo y tengas 7 esposas por cada dedo.
En tan solo 8 años el puerto AGP había pasado de los
266MB a los 2.133MB por segundo, 8 veces más que en
un comienzo:
• AGP 2X pasó a los 133MHz y 512MBps, y mantenía los 3.3V de funcionamiento. • AGP 4X pasó a los 266MHz y 1066MBps, con un voltaje de 1.5v. • AGP 8X pasó a los 266MHz y 2133MBps, con un voltaje de 0.8v.
El problema que trajo los voltajes se tradujo en zócalos diferentes. Forzar (literalmente)
una tarjeta de video AGP de 1.5v en un slot de 3.3v o viceversa era lo más cercano a un
suicidio, pero menos mal, habían puertos “AGP Universales” que aceptaban ambas sin
problemas.
Pero AGP no siempre fue AGP como tal lo conocimos. El puerto tuvo un par de
extensiones oficiales como AGP Pro para tarjetas que requerían más electricidad para
Pág 89 de 254
funcionar como algunos modelos para workstations (guorquesteichons en espanglish),
donde las tarjetas eran más grandes, más caras, y hacían más cálculos. Otra extensión
oficial fue AGP 64-bit, que duplicaba el actual canal de 32 a 64-bit, pero nunca llegó al AGP
3.0, y se fue directo al tacho de la basura. NPI porqué, pero al parecer era un parto
duplicar el ancho de banda en el PCB y al final la ganancia iba a ser mínima.
Para sobrepasar algunas limitaciones del AGP, algunos fabricantes decidieron aventurarse
con sus propias variaciones, como Ultra-AGP de SiS, que permitía andar a AGP8X hasta
3.2GBps. De hecho yo la tuve en mi placa madre con chipset SiS 730 antes que se quemara
por intentar overclockear cambiando los MHz de trabajo (craso error), y la ganancia era
nula: no por aumentar el límite de velocidad en la carretera ese Lada Samara iba a correr
como un Ferrari. Por otra parte ¿Para qué un fabricante se arriesgaría lanzando una
tarjeta de video consumiendo 3.2GBps de ancho de banda si la gran mayoría de la
industria estaba a 2133MBps como límite?
No sólo existieron variaciones mejorando el AGP, sino también otras “para atrás”. A ver si
les suena una de éstas: AGI de ASrock, AGX de EpoX y XGP de Biostar, todas ellas se
transformaron en una especie de paso medio de PCI a AGP; esencialmente eran puertos
PCI disfrazados de AGP para que los chipsets que no poseían la compatibilidad respectiva,
lo que a más de alguno le trajo algún problema. Lo más fascinante de todo era la
incompatibilidad con varias tarjetas, algo así como con 3/4 del mercado de modelos AGP;
sólo una limitada lista podía funcionar sin problemas, mientras otro poco funcionaba
cojeando. Otros fabricantes tuvieron más de algún problema implementando el susodicho
en otros chipsets, especialmente los baratos, y ya era de común saber que algunas placas
madres “a precio de huevo” con una sospechosa lista de “Compatibilidad AGP”. Si la
tarjeta no estaba en ese papel, era seguro que presentaría algunos problemas de
velocidad y compatibilidad. ¿Alguien dijo “PCChips”?
Si te veo, no te conozco
AGP no duraría mucho, pero se las ingenió – como tecnología basada en el bus PCI – para
mantenerse a flote hasta el 2004~5, años donde PCI Express aparecía como el próximo
reemplazo natural. NVIDIA y ATI no podían hacerse los sordos con una tecnología que
tenía los días contados, porque ningún cambio es inmediato y muchos usuarios aún
conservarían su placa madre funcionando por varios meses más, y en esos momentos
lanzaron variaciones de sus nuevas tarjetas con el chip “Rialto” que actuaba de puente
entre la información que salía desde el chip gráfico en idioma PCI Express en AGP y
viceversa. Nada de malo por para quienes eran usuarios normales, pero al menor signo de
overclock, el puente tendía a limitar los datos que entraban y salían gracias a que su
Pág 90 de 254
frecuencia daba “justo” para el desempeño de fábrica. Varios eran los casos de tarjetas
PCI Express bridgeadas a AGP con buen overclock pero nula ganancia, y no había nada que
hacer.
Otros casos fueron al revés. Recuerdo a Albatron lanzando un puente para esas tarjetas AGP que querían pasar a PCI Express pero no podían porque… bueno… porque no cabían. Pero era una solución que sólo era compatible con una lista pequeña y que sólo se comercializó en Japón (lo digo porque nunca la ví en América o Europa). Otros se pasaron de listos y decidieron poner un puerto AGP en calidad
Albatron ATOP
de renegado en una placa madre PCI Express, pero era otra integración malandra que no
gozaba de mucha aprobación, y que a sólo afortunados usuarios – esos que se ganaban la
lotería 3 veces seguidas y efectivamente salen en algún comercial – eran quienes elegían
estas placas porque mágicamente su tarjeta de video estaba dentro de la lista.
En todo caso, lo que sucedía era evidente: mejor pasarse rápido y con todo, y así el AGP
dejó lentamente de vivir, total el mercado de tarjetas gráficas y fabricantes de placas
madres eran los únicos afectados, no todo el mercado de la informática. Mientras alguno
OEMs siguieron (y siguen) apoyando la tecnología AGP, ya sea por cualquier razón, ya
llevamos unos 5 años aproximadamente sin placas madres a la vista con este singular
puerto. Si alguien me pregunta por AGP, le preguntaré de vuelta si se refiere a alguna
asociación en protesta o algún celular nuevo. Tecnología muerta no se extraña, como
James Bond hace con todas las féminas que se ha repasado.
Pág 91 de 254
(074) Cyrix MediaGX: CPU+GPU existió hace 14 años Por David Sarmiento Portocarrero
Actualmente las 2 grandes empresas fabricantes de microprocesadores x86, Intel y AMD,
han encontrado que el integrar el mayor número de componentes en el CPU, reduce los
costos de producción, a la vez que incrementa la confiabilidad y el desempeño de sus
respectivas plataformas.
En los recientes años apreciamos que ambas,
paulatinamente, integraron en sus CPU componentes
que antes eran externos como la unidad de punto
flotante (x87), el controlador integrado de memorias,
e incluso recientemente varias partes del propio
northbridge.
En los actuales microprocesadores Core ix Series vemos que el IGP, si bien no forma parte
del microprocesador aún, está presente en el mismo encapsulado. Pero esta situación está
PCI sufría de un malestar: todos los dispositivos que se conectaban allí compartirían el
mismo bus, por lo que el rendimiento se vería mermado cuando una necesitara más
ancho de banda que otro dispositivo. Esta pelea de intereses llevaría, por poner un
ejemplo, a que dos controladoras de discos estuviesen rindiendo a la mitad en la
transferencia mientras peleaban con los datos que entraban y salían de alguna LAN gracias
a la tarjeta de red. Ni hablar de resoluciones HDTV y video en alta resolución, 133MB se
escuchaba grande pero en la práctica no es tanto cuando tienes muchas cosas conectadas
chupando como reviewer de cumpleaños en botillería sin nadie que atienda.
Llegó el momento de las analogías: imaginemos el caso de la carretera 5 Norte que
interconecta a todas las ciudades del país del norte de Chile, pero con sólo 1 línea en vez
de 4. Todas las ciudades comparten la misma carretera, y todos se entenderán bien
mientras no salga de Arica una caravana gigante que termine por crear un interminable
taco en los cientos de kilómetros que faltan a la capital, aún cuando alguien desee llegar
sólo a Iquique o la ciudad de más adelante.
Pág 131 de 254
Ars Technica (C)
¿Qué sucedería si cada ciudad tuviese una carretera exclusiva hacia Santiago? Eso es PCI
Express, una conexión punto-a-punto, con un “switch” al otro extremo de la línea,
encargado de mandar cada auto a su destino correspondiente. Y el cambio arquitectónico
no era nada de otro mundo, por lo que aquellos dispositivos hechos para PCI sólo tenían
que, en el mejor de los casos, cambiar la conexión a PCI Express. De pasada, como estás
solo en esta especie de pista recta, no hay miedo en presionar el acelerador hasta que la
aguja se de unas diez vueltas al tacómetro. ¿O acaso vas a chocar con una curva?
Hay que tomarse la línea (no esa línea)
La filosofía de PCI Express es la conexión en serie, directa,
mientras permitía que la información llegara sin errores, y
con el menor esfuerzo posible. La conexión está basada en
líneas, cada una de ellas consta de dos pares de “sub-
líneas” que transmiten hacia y desde – en total 4
autopistas, dos en sentido contrario a las otras dos.
Cada uno de ellos lanza 1 bit al aire por cada ciclo (o
hertzio para que no se pierdan), y cada byte está codificado
en 10 bits en vez de 8 (luego explico eso). Con esto luego el
switch que recibe la información verifica a través de la
decodificación del mismo paquete si todo salió bien o mal.
HowStuffWorks (C)
Pág 132 de 254
La frecuencia de operación de PCI Express 1.0 es de 2.5GHz, o mejor dicho, 100MHz con
un multiplicador de x25, lo que se traduce en 250.000 bits por segundo. Resultado: los
datos que pueden salir por una línea en un segundo es de 500MB redondeados, sin
embargo, dado que los dos bits de codificación ocupan el 20% de lo que se transfiere,
estamos hablando de 400MB reales, o 200MB por cada lado. Mientras AGP lograba los
2133MB en el mejor de los casos, con sólo 8 líneas PCI Express se lograban 3200MB
asíncronos por segundo y sin despeinarse. Tecnologías comparables, pero no iguales.
La gran diferencia entre el AGP, PCI y PCI Express era que este último era administrado por
un “switch” que tenía lugar en el Northbridge, aquél chip donde pasa todo incluyendo el
bus del sistema, para administrar los datos que pasaban y su destino: el CPU, RAM, o el
mismo bus central. También trajo bastantes cambios abajo del capot, como lo hizo AGP en
su tiempo:
• Prioridad: Antiguamente, si algún “paquete” de datos de algún dispositivo PCI debía llegar rápido y sin demoras a un lugar, tenía que quedarse en la cola de los otros que habían llegado antes. Con PCI Express, el switch se encarga de ordenarlos en caso que uno necesite tener más prioridad que el otro. Por ejemplo, mientras uno le da duro a un videojuego de acción, los paquetes de información gráfica serán los primeros en llegar en vez de aquellos que mande una tarjeta de red inalámbrica.
• Punto a Punto: El trabajo del switch también es interconectar cada dispositivo directamente con otro, asegurando el ancho de banda completo a cada uno en vez de dividirlo entre un número determinado de dispositivos conectados.
• Full Duplex: Mientras el bus PCI estabas recibiendo o enviando datos, considerando la espera entre cada paquete, en PCI Express se pueden hacer ambas cosas simultáneamente. No más “Cambio y Fuera”.
• Ancho de banda ajustable: Todos los puertos PCI por norma eran iguales, pero en PCI Express se puede crear un puerto con menos líneas para otros dispositivos que no demandan tanto, como tarjetas de sonido, de red, controladores de discos, etcétera. De ahí los puertos PCI Express 1X, 2X y 4X.
• Menor degradación de la señal: Como la señal ya no es compartida en un mismo bus, la recepción de las señales son mucho más limpias y hay menos errores entre los datos. Cada línea envía una versión “positiva” y otra “negativa/invertida” de la señal al destino, donde se combinan al llegar al switch, limpiando el ruido electromagnético.
• Coexistencia con software: PCI Express es una tecnología que no es diferente a como PCI funciona a nivel de software, por lo que los sistemas operativos necesitaron muy pocas maniobras para ser compatibles.
• Donde quieras: La versatilidad de PCI Express es suficiente para que una tarjeta de 8X o 4X pueda insertarse en un puerto PCI Express 16x (pero en muchos casos no al revés). Total, lo único diferente eran el menor número de líneas.
Pág 133 de 254
• Mejor reconocimiento de errores: Nadie es perfecto, y menos las computadoras. Como en el bus PCI Express se codifican los 8bits en 10bits, una pérdida del 20% del ancho de banda es marginal comparado con la posibilidad de recuperar el byte corrupto en el próximo ciclo.
• Hot Swap: Así como algunos discos SCSI eran posibles de ser intercambiados mientras funcionaban, en PCI Express también es posible si la tarjeta conectada lo permite. Eso sí, no lo intenten con la tarjeta de video mientras funciona, es pésima idea. Ya lo comprobé y tuve que reiniciar.
• Mayor energía: El puerto AGP podía entregar cerca de 40W a la tarjeta de video, pero PCI Express lograba 75W mientras se usaba el puerto con 16 líneas. No más pines de alimentación aparte, no más estragos a la hora de crear un GPU que consumiera menos.
Aún con todas esas ventajas, la transición a PCI Express fue bastante dolorosa para
algunos, pero en el mercado de tarjetas gráficas el cambio era casi obligado cuando
apareció el rumor que algunas de las próximas tarjetas gráficas empezarían a sentir el
techo de lo que podía ofrecer AGP y el rendimiento que se perdía al no usar las ventajas
del nuevo estándar. Se dieron algunos casos alejados de puertos PCI Express 32x, pero el
slot era demasiado largo que era mucho más común verlo en tarjetas madres de
servidores con algún engendro chupa-ancho-de-banda montado que en las computadoras
de los consumidores finales. De hecho solo las he visto por fotos de Google.
¿Verdad que les dije que les iba a explicar eso de la codificación? Eso de 8b/10b mucha
gente no lo entiende, así que aquí les va otra analogía. Imagínense que vamos a comprar
huevos, y nos encargan 8 bandejas gigantes para llevar en nuestra mochila. Lo más obvio
sería comprar aquellas 8 e ir directamente a entregarlas, pero nadie nos asegura que
durante el camino se nos pierda o se suelte el paquete entero con las 8 bandejas. La
solución que pone en el tapete PCI Express era llevar 8 piezas y 2 bandejas más vacías, que
para esta analogía colocaremos una en cada extremo. Si bien aportan con más espacio, es
mucho más seguro que lleguen las 8 a salvo si se nos cae el paquete completo y pega en
una de las bandejas vacías. Después de tres vueltas habremos entregado 24 bandejas con
huevos en vez de 30, pero hey, no tendremos que hacer un cuarto transporte para
reponer aquella que se perdió.
Pero no se crean el todo esa analogía. En PCI Express no se ponen un bit al principio y otro
al final del byte, sino que se dan vuelta unos bits de posiciones, se intercalan con dos bits,
y el resultado es un número decimal que puede resultar en un dato o un caracter. Sí,
tampoco lo entiendo yo, pero sí entiendo que no puedo alegar para que me devuelvan
esos dos bits demás.
Pág 134 de 254
Casi todos con el pulgar arriba
Recordarán en el episodio anterior de nuestra web-novela, “me cambio de puerto”,
también conocido como “Cuando llegó el puerto AGP al mundo”, AGP era un cambio que
afectaba específicamente a los fabricantes de tarjetas de video y un poco más a aquellos
que hacían chipsets y placas madres. Eso no fue nada comparado con el cambio que
impulsó PCI Express, porque este nuevo estándar significaba deshacerse por el AGP y los
puertos PCI. Así de simple.
La primera tarjeta de sonido PCI Express de Creative recién se presentó el 2007 - PC Watch (C)
O sea, no sólo tenemos en el saco de la
actualización a los fabricantes de tarjetas de
video, sino a aquellos que hacen placas
madres, chipsets, tarjetas de sonido, de
red, controladoras de discos, y todo el
resto. Por una parte era entendible, pero
los cambios que representaban en ellos los nuevos puertos, como también los costos
asociados, eran mucho más grandes que la ganancia para el usuario al usar un puerto PCI
Express en vez de un PCI. Me explico: una tarjeta de sonido perfectamente podía
funcionar en el puerto PCI como una de red. Dicho y hecho, aquellos fabricantes que
tenían productos útiles pero poco demandantes no se movieron mucho, lo que terminó
por dejar a los fabricantes de placas madres casi-obligados a ofrecer productos con
puertos PCI normales para coexistir.
Quienes sí se regocijaron mucho fueron aquellos creadores de portátiles. El nuevo
estándar permitía menos espacio para conectar tarjetas WiFi u otras en comparación con
el puerto PCI, mientras por otra parte le daba paso a la creación del derivado ExpressCard,
que mató a la PCCard por el tamaño y la velocidad. También habían otras soluciones locas
como la posibilidad de conectar un puerto PCI Express a un cable de hasta 5 metros, pero
existió poco apoyo, al parecer, porque PCI-SIG aún no daba con las especificaciones
concretas, por lo menos, hasta hace poco. Otra solución más loca, pero genial al fin y al
cabo, es wPCIe, una solución para conectar algo sin cables como una controladora de
donde sólo podían cambiar de placa madre para no perder la inversión, o probando con
otra fuente de poder más top.
Ahora PCI-SIG planea lanzar al aire el más que retrasado PCI Express 3.0, que tenía como
objetivo terminar sus especificaciones el año pasado, pero no logró. La nueva versión
traerá lo siguiente:
• Dejará a PCI Express funcionando a 8GHz, o sea, el bus base de 100MHz multiplicado por 80.
• La frecuencia dará como resultado una línea pasando 1GB de información por segundo (500MB en cada dirección) aproximadamente.
• Reemplazará la codificación 8b/10b a favor de 128b/130b (si todo les resulta bien). • Logrará suministrar el doble de energía, cerca de 150W. • Usuarios preguntando si su tarjeta PCI Express 3.0 le hace a la 2.0. • Más de alguno cambiando de placa madre por pavo.
Pero según lo que reportamos anteriormente, el “cacho” de pagar nuevo hardware recién
lo viviremos entrado el 2011. El cálculo es simple: si terminan las especificaciones este
año, pasará bastante tiempo para que los desarrolladores y arquitectos que tienen los
fabricantes de placas madres y chipsets los adapten a sus próximos productos, y
perfectamente principios o mediados del próximo año estarán listos. Según el calendario
maya, eso es justamente antes del fin del mundo.
Por ahora sólo nos queda mirar cuántos otros fabricantes se están sumando al barco de
PCI Express, porque lentamente los puertos PCI están dejando de ser numerosos en las
placas madres, y sólo es cosa de darse una vuelta por las vitrinas de tu tienda favorita para
notar que estas tarjetas nuevas están empezando a traer uno o dos de esos puertos en
vez de sólo traer un par de PCI Express para la tarjeta de video. Menos mal, todos se están
cambiando, y recién este año hemos empezado a notar que las tarjetas de sonido, y
algunas de red, están usando PCI Express para funcionar. Espero que el cambio de PCI
Express 3.0 al próximo estándar sea mucho más fuerte y menos caro, miren que mi vecino
recién terminó de pagar las cuotas de esa placa nForce 4 con PCI Express.
Pág 139 de 254
(116) Los 10 mejores IGP de la historia Por David Sarmiento Portocarrero
IGP de la Foxconn Digital Life Conema II Deluxe
Introducción
Si bien las PC basadas en la popular arquitectura x86 fueron populares desde sus inicios
con los viejos chips 8088/8086, no fue hasta la aparición de los sistemas operativos con
una interfaz gráfica de usuario como el popular Microsoft Windows 95, que empezó la
época dorada para la PC; las ventas se elevaron exponencialmente, y un componente que
había pasado desapercibido empezó a tomar relevancia: los chips de video o aceleradores
gráficos, los cuales empezaron a mostrar su impacto en el rendimiento general del equipo,
y no solamente en los viejos juegos para MS-DOS, el popular sistema operativo
predecesor de Windows. Los grandes OEM iniciaron una dura competencia, y a fin de
diferenciarse de sus competidores e incrementar sus ganancias tuvieron una idea genial,
integrar un chip de video soldado en la propia mainboard a fin de reducir costos y espacio,
un enfoque que se inició en tiempos de las Intel 386, y que se mantuvo popular incluso en
tiempos de los microprocesadores Intel Pentium, pero no fue hasta que un fabricante de
chipsets llevó este concepto más allá dando nacimiento a los actuales IGP.
El 8 de Junio de 1978, Intel presentó al público el chip 8086 (también conocido como
iAPX86), procesador que se convertiría en la base para el actual conjunto de instrucciones
de arquitectura x86, dando inicio a la historia moderna de las CPUs de propósito general.
Con frecuencias que bordeaban los 5 MHz en un principio, ese número se logró duplicar
para 1990, año en que el chip fue descontinuado por la compañia.
Cerca de dos años de desarrollo tomó al equipo liderado por Bill Pohlman diseñar el chip
Intel 8086 de 40 pines y extensión completa de 16-bit, siendo el sucesor directo de 8080,
microprocesador de 8-bit construido en 1974 y que empezaba a bosquejar los primeros
intentos de un procesador
de propósito general por parte de
Intel. Curiosamente,
la producción del chip 8086 era
subcontratada, y en la siguiente
imagen podemos ver dos modelos
hechos por AMD y Fujitsu
respectivamente:
Historia
Durante los años 70, Intel era una compañía que prácticamente se dedicaba a
la producción DRAM en lugar de procesadores, pero gracias al chip 8008, lograron
un éxito que les permitió seguir en competencia con los grandes de la época como:
Motorola, National Semiconductor o ZiLog, esta última empresa se volvió muy popular
gracias a su chip Z80, el cuál había sido diseñado por exs empleados de Intel utilizando
una microarquitectura e instrucciones muy similares al chip 8085 (versión con
compatibilidad binaria de 8080).
El diseño de Intel 8086 tenía como principal objetivo seguir la línea y mantener
retrocompatibilidad con los chips 8008, 8080 y 8085, de este modo los programadores
(machos que hacían todo el aseembler) no debían editar o rehacer código, pero a
Pág 170 de 254
diferencia de sus hermanos menores, 8086 incluiría soporte completo para el
procesamiento de 16-bit.
Stephen P. Morse, principal arquitecto del proyecto 8086, comentó que las instrucciones
en el nuevo diseño de Intel tendrían mejor relación con algunos lenguajes de más alto
nivel de la época (Pascal, PL/M) y no tanta implicancia con el compilador.
La contratación de Morse en el proyecto dio bastante que hablar, ya que era un Ingeniero
de Software que tenía una visión totalmente distinta sobre el diseño de CPUs, la que había
estado dominada por Ingenieros de Hardware:
Por primera vez, íbamos a mirar las características del procesador desde una mirada del
software. La pregunta no es ‘¿Para qué características tenemos espacio?’ sino
‘¿qué características queremos en orden para hacer el software más eficiente?’
Junto a las nuevas instrucciones agregadas al procesador como: soporte completo para
enteros con signo, direccionamiento base-offset, y operaciones repetitivas con una
perspectiva de computó general, diferenciaron a Intel del diseño de Z80.
El chip 8086 finalizó con 20.000 transistores activos (29.000 contando todos los ROM y
PLA), mientras la construccion del procesador fue hecha bajo el proceso llamado HMOS
(High performance MOS) y utilizado por Intel para fabricar de manera más rápida sus
productos SRAM.
Pág 171 de 254
Bus, registros y otras hierbas
La verdadera identidad de 8086 se establecen en sus registros y buses (interno, externo)
de 16-bit, lo que permite un direccionamiento I/O de 64 KB (216 = 65.536), mientras el bus
externo de 20-bit permitía un direccionamiento físico de 1 MB.
Los registros del 8086 estaban divididos en dos secciones principales, de propósito general
y de índice.
AX: Registro acumulador, dividido en AH / AL. Su principales funciones eran generar
código de máquina, operaciones de aritmética, lógica y transferencia de
datos, multiplicación y división, salidas y entradas.
BX: Registro base de direccionamiento, dividido en BH / BL.
CX: Registro contador, dividido en CH / CL. Su objetivo era iterar segmentos de código,
repetir operaciones y contar bits
Pág 172 de 254
DX: Registro de datos, dividido en DH y DL. Junto con AX se concatenan operaciones MUL
y DIV en un registro de 32-bit, también especificaba puertos en algunas operaciones de
entrada/salida.
SI: Registro indice. Usado de puntero para ciertos datos y como fuente para ciertas
instrucciones de procesamiento.
DI: Indice destino. Cumple el mismo objetivo de SI con un offset distinto (SS).
BP: Puntero base. Usado para acceder a parámetros pasados vía pila.
SP: Puntero de Pila. Siempre apunta al primer item de una pila (a FFFEh si está vacía)
Luego tenemos los registros bandera, de segmentos y apuntador de instrucciones
especial; Cada uno de ellos cumplía funciones muy específicas, como conocer el estado
del procesador luego de haber realizado una operación (banderas) o acceder a los valores
alojados en memoria (segmentos) aunque también se podían almacenar en aquellos
registros (64KB) pero no era la idea para aquella época donde un KB más o menos
marcaba la diferencia.
Uno de los inconvenientes del bus de datos del 8086, era que estaba multiplexado
(dividido en varias señales) con el bus de direccionamiento, limitando el rendimiento final
especialmente en aquellos procesos de 8-bit, que corrían ligeramente más lentos que los
procesadores de 8-bit de aquellos tiempos. Otros problemas que afligían al recién nacido
8086 eran la lentitud con la que se realizaban operaciones aritméticas, por lo que Intel
decidió agregar un segundo chip (8087) encargado de realizar
operaciones matemáticas con números de 80-bits, éste es el denominado co-
procesador matemático.
Pág 173 de 254
Pines
El sistema de entradas y salidas del microprocesador 8086 está diseñado en el formato
DIP (Dual Inline Package), que consiste en 40 patas (o pines) en total -20 en el lado
izquierdo, 20 en el derecho- separadas entre sí por 2,54 milímetros.
Cada uno de los pines cumple con una función específica y están enumerados del 1 al 40.
Para identificar cada pin es necesario fijarnos en la muesca semicircular que marca el
comienzo de la numeración de los pines, siempre desde el lado izquierdo hacia abajo y
luego desde abajo hacia arriba por el lado derecho. Esto último es muy importante tener
en cuenta antes de conectar los pines a sus respectivas entradas/salidas, porque no
faltará el descuidado que conecte la entrada de 5V (Vcc) a la salida GND (tierra/masa).
Pág 174 de 254
Las funciones de los pines son las siguientes:
1. GND (Masa) 2. AD14 (Bus de direcciones) 3. AD13 (Bus de direcciones) 4. AD12 (Bus de direcciones) 5. AD11 (Bus de direcciones) 6. AD10 (Bus de direcciones) 7. AD9 (Bus de direcciones) 8. AD8 (Bus de direcciones) 9. AD7 (Bus de direcciones y datos) 10. AD6 (Bus de direcciones y datos) 11. AD5 (Bus de direcciones y datos) 12. AD4 (Bus de direcciones y datos) 13. AD3 (Bus de direcciones y datos) 14. AD2 (Bus de direcciones y datos) 15. AD1 (Bus de direcciones y datos) 16. AD0 (Bus de direcciones y datos) 17. NMI (Entrada de interrupción no enmascarable) 18. INTR (Entrada de interrupción enmascarable) 19. CLK (Entrada de reloj generada por el 8284) 20. GND (Masa) 21. RESET (Para inicializar el 8088) 22. READY (Para sincronizar periféricos y memorias lentas) 23. /TEST 24. /INTA (El 8088 indica que reconoció la interrupción) 25. ALE (Cuando está uno indica que salen direcciones por AD, en caso contrario, es el
bus de datos) 26. /DEN (Data enable: cuando vale cero debe habilitar los transceptores 8286 y 8287
(se conecta al pin de “output enable”), esto sirve para que no se mezclen los datos y las direcciones).
27. DT/R (Data transmit/receive: se conecta al pin de dirección de los chips recién indicados).
28. IO/M (Si vale 1: operaciones con ports, si vale 0: operaciones con la memoria) 29. /WR (Cuando vale cero hay una escritura) 30. HLDA (Hold Acknowledge: el 8088 reconoce el HOLD) 31. HOLD (Indica que otro integrado quiere adueñarse del control de los buses,
generalmente se usa para DMA o acceso directo a memoria). 32. /RD (Cuando vale cero hay una lectura) 33. MN/MX (Cuando esta entrada está en estado alto, el 8088 está en modo mínimo,
en caso contrario está en modo máximo) 34. /SSO (Junto con IO/M y DT/R esta salida sirve para determinar estados del 8088) 35. A19/S6 (Bus de direcciones/bit de estado) 36. A18/S5 (Bus de direcciones/bit de estado)
Pág 175 de 254
37. A17/S4 (Bus de direcciones/bit de estado) 38. A16/S3 (Bus de direcciones/bit de estado) 39. A15 (Bus de direcciones) 40. Vcc (+5V)
Esta es la configuración del 8086 en modo mínimo, cuando se le aplica más de 5V al pin 33
(MN/MX) automáticamente el microprocesador entra a funcionar en modo máximo y
algunos de los pines cambiaban su significado:
• Pin 24, QS1: Estado de la cola de instrucciones (bit 1). • Pin 25, QS0: Estado de la cola de instrucciones (bit 0). • Pin 26, S0: Bit de estado 0. • Pin 27, S1: Bit de estado 1. • Pin 28, S2: Bit de estado 2. • Pin 29, /LOCK: Cuando vale cero indica a otros controladores del bus (otros
microprocesadores o un dispositivo de DMA) que no deben ganar el control del bus. Se activa poniéndose a cero cuando una instrucción tiene el prefijo LOCK.
• Pin 30, RQ/GT1: Es bidireccional y tiene la misma función que HOLD/HLDA en modo mínimo.
• Pin 31, RQ/GT0: Como RQ/GT1 pero tiene mayor prioridad. • Pin 34, Esta salida siempre está a uno.
Micro-computadores con 8086 y clones
Uno de los primeros computadores en
incorporar la tecnología del chip Intel
8086, fue el famoso IBM PC, modelo que
utilizaba el chip 8088 -una versión de 8086
con un bus de datos de 8-bit- y marcó el
comienzo de un estándar para el resto de
la industria de computadores. Luego de
IBM PC, vinieron los modelos IBM PS/2
que incorporaron el verdadero 8086 con una frecuencia de 8 MHz. Sin embargo, el primer
micro-computador en comercializar el procesador 8086 fue el fabricante noruego Mycron
y el su modelo Mycron 2000, que utilizaba el sistema operativo CP/M-86. Otros micro-
computadores que adoptador el procesador de Intel fueron:
• Compaq Deskpro, con el chip 8086 a 7,14MHz, además fue el primer IBM PC clon que permitía tarjetas diseñadas para el IBM PC XT.
• IBM Displaywriter, máquina de procesamiento de texto diseñada en los Laboratorios Wang
• Tandy 1000 serie SL
Pág 176 de 254
• Amstrad PC1512, PC1640 y PC2086, todos utilizaban el chip 8086 corriendo a 8MHz
• FLT86, fabricado en Inglaterra
Como toda buena influencia en el mercado, no podía estar ajena a las copias y el chip Intel
8086 fue víctima de aquello.
En los años 80, Intel no disponía de sus propias fabricas para proveer de sus chips a todo
el mundo, por lo que muchas unidades eran encargadas a otras compañías como: Fujitsu,
Harris/Intersil, OKI, Siemens AG, TI, USSR, NEC o Mitsubishi, las que aprovechaban de
hacer versiones compatibles. En algunos casos, el 8086 no sólo era copiado, sino que
también mejorado para diversos propósitos, esto sucedió con los modelos V20 y V30 de
NEC, los que agregaban el set de instrucciones de los 80186 y una frecuencia ligeramente
mayor, aunque en esos tiempos tener 2 MHz extras podía significar hasta un 30% más de
rendimiento.
Sin embargo, también existieron clones de 8086, estos nacieron en la ex
Union Soviética gracias el espionaje industrial y la ingeniería inversa. El clon ruso de Intel
8086 era denominado K1810BM86, que además -patudamente- era compatible con los 40
pines y set de instrucciones del original. La necesidad de proveer de procesadores a los
computadores de la Union Soviética los llevó a implementar su propia solución de chip,
diseño de circuitos y bus de datos independientes al producto original de Intel.
Pág 177 de 254
Conclusión
El éxito logrado por Intel y sus microprocesadores 8086 y 8088 no sólo tuvo un fuerte
impacto en la computación de hoy en día, en los años setenta fue catalogado por la revista
“Fortune” como uno de los mejores negocios de la época gracias a la inclusión del
microchip en soluciones de computación económicas como fueron los IBM PC, aunque
originalmente fue pensado para sistemas embebidos.
Al mismo tiempo que se iba masificando el chip 8086 y sus hermanos, nacía un nuevo
termino, x86, y que hace referencia al conjunto de instrucciones de arquitectura que se
estaba formando. Desde aquellos tiempos hasta la fecha, x86 se ha vuelto en la
arquitectura más popular entre PCs de escritorio como portátiles gracias a que varias
marcas como HP, Sanyo, Toshiba y otros, imitaron los pasos de IBM con productos clones.
Las siguiente iteraciones de la arquitectura fueron mejorando considerablemente
en características, por ejemplo: La segunda generación x86 estuvo liderada por los chips
Intel 80186 y 80286 comenzó a ofrecer un espacio de direccionamiento físico de 24-bit y
paginamiento de memoria, la tercera y cuarta generación estuvo marcada por la evolución
a un direccionamiento lineal y físico de 32-bit, la transición más larga de
la computación personal moderna.
Han pasado más de 32 años desde la aparición del histórico Intel 8086 y hoy nos
encontramos en la denominada décimo tercera generación de la arquitectura x86, que
nos ofrece un direccionamiento lineal/físico de 64-bit y todo un nuevo conjunto de
instrucciones y características como SSE5/AVX, virtualización, controladores de memoria
en el mismo die de la CPU, FPU superescalar y por supuesto un diseño totalmente
modular. Todo esto no habría sido posible sin 8086.
Pág 178 de 254
(144) El primer CPU QuadCore x86 Por David Sarmiento Portocarrero
Un CPU Quad Core (cuádruple núcleo) integra 4 núcleos en un único chip, y se
constituyeron en el siguiente paso evolutivo luego de los CPU Dual Core (doble núcleo), en
teoría un CPU Quad Core debe integrar 4 núcleos en el mismo die, pero el 1º CPU Quad
Intel Core 2 Series: Más peligrosos de lo esperado
3 días después de la compra, Intel lanza sus CPU Core 2 Duo, y con ellos recupera la
corona del desempeño, consumo y costo de fabricación. Ante ellos AMD no tuvo otro
remedio que competir con precios económicos, y las cosas no pudieron ponérseles peor
pues 4 meses después Intel lanza los Core 2 Quad, CPUs ante los cuales AMD no pudo
competir hasta después de 1 año.
Intel retira a ATI la licencia para fabricar chipsets para sus CPU
ATI antes de ser adquirida por AMD, mantenía buenas relaciones con Intel, y ante los
poderosos IGP Nforce de Nvidia para la plataforma AMD, ATI se había convertido en el
equivalente para Intel, desarrollando chipsets e IGP con excelentes prestaciones, e incluso
siendo algunos de ellos usados en mainboards que Intel vendía con su marca (D101GGC y
D102GGC2), Intel al enterarse de la compra le retira la licencia, y realiza acuerdos con SiS,
la que pasa a reemplazar la posición que tenía ATI (Intel ofrece algunas mainboards con
chipsets e IGP de SiS), además le da acceso a Nvidia al suculento mercado de IGPs para su
popular plataforma LGA 775, así como también a su plataforma para portátiles (antes de
ello Nvidia únicamente podía fabricar chipsets no IGP y SLI).
Pág 204 de 254
Abit Fatal1ty F-I90HD una de las pocas mainboards basadas en el IGP AMD Radeon Xpress X1250 (el equivalente del 690G para la plataforma Intel socket LGA 775)
Esta medida de Intel tuvo mayor repercución de lo esperado, pues desencadenó meses
después, que Apple abandonara los GPUs de ATI, y se decantara por los GPUs e IGPs de
(200) La llegada de los tablets Por Juan Pablo Oyanedel
Sin duda el panorama de la computación actual ha cambiado. Y como artículo final de la
serie Bicentenario en CHW, más que hablar del pasado esta vez hablaremos del futuro, en
un año 2010 que hace coincidir la celebración que nos convoca junto con el aterrizaje
definitivo de un concepto que pese a no ser nuevo, al fin ha captado la atención de los
fabricantes en todo el mundo, quienes este año tomaron acuerdo para sentar las bases de
lo que será el modelo que de seguro nos acompañará por varios años más: los tablets.
Dibujo de 1968 del primer concepto de tablet, el Dynabook
¿Qué es un tablet?
Para quienes vienen recién despertando después de 20 años de preservación criónica, vale aclarar los aspectos que hoy en día definen lo que es una computadora como tableta.
cinco pulgadas, con una pantalla táctil en lugar de mouse y teclado, y la CPU junto con los
demás componentes electrónicos integrados dentro del mismo dispositivo, al igual que lo
hace un teléfono móvil o un notebook, logrando un solo aparato que cumple todas las
funciones esperadas en una computadora.
El desarrollo de los estándares que en el 2010 definen un tablet son el resultado de un
largo camino que revisaremos más adelante, así que ahora nos limitaremos a decir que
actualmente se espera a que se cumpla con lo siguiente:
• Procesador x86 para sistemas operativos propios de un PC de escritorio (Windows 7, Ubuntu), o bien una CPU ARM para sistemas operativos móviles (Android, iOS 4, webOS, QNX, etc)
• Pantalla táctil de entre 5 y 10 pulgadas aproximadamente, pues se prioriza la portabilidad del aparato.
• Larga autonomía energética a través de una batería integrada. • Hardware interno tal como el de una computadora: CPU, memoria RAM,
almacenamiento vía Flash NAND o SSD, chip para gráficos, etc. • Conectividad a Internet tanto por WiFi como por redes móviles celulares vía 3G. • En el caso de sistemas operativos móviles, acceso a una tienda de aplicaciones en
línea para conseguir software adicional al preinstalado. Si se trata de un tablet x86, la disponibilidad de programas es la misma que en los PCs tradicionales.
Pág 246 de 254
Una sola idea, dos caminos diferentes
Identificamos así dos grandes corrientes basándonos en la CPU que se decida utilizar: x86
o ARM.
La primera ofrece la ventaja de ser compatible con todo el software que popularmente se
ha usado durante los últimos 20 años en la computación tradicional, pues el soporte para
sistemas Windows o Linux es nativo al tratarse simplemente de una computadora normal,
pero miniaturizada y con pantalla táctil.
Por otro lado, al usar ARM se aprovechan las ventajas de una arquitectura que está
diseñada desde su base para lograr una mayor eficiencia energética y un buen
rendimiento, la cual se enfoca casi únicamente al sector de los dispositivos móviles, como
lo son los tablets.
Es precisamente este punto el que ha causado mayor controversia al momento de
ponerse de acuerdo para fijar lo que será un tablet: ¿Queremos un dispositivo móvil por
definición, o una computadora tradicional reducida en tamaño?
ARM y x86 ofrecen la diferenciación perfecta y necesaria para marcar esta disyuntiva, y si
bien aún no se logra un consenso total en la industria acerca de cuál es el formato más
conveniente a utilizar, sí se está apreciando una tendencia para asumir que un tablet es un
aparato móvil, por lo que la utilización de un chip basado en ARM y un sistema operativo
móvil como Android es la opción adecuada a seguir, en lugar de poner “un elefante a
dieta” y usar CPUs x86 con Windows encima; una plataforma que hasta el momento no es
del todo amigable para su uso con los dedos, en contraste con Android o iOS 4 que son
hechos desde su raíz para ser movidos en forma táctil.
Así, otros intentos surgieron los años posteriores, utilizando diferentes sistemas
operativos como MS-DOS en 1989, PenPoint OS de GO Corporation que fue usado en
varios dispositivos de IBM a principios de los noventa, Pen Windows, que se trataba de
una serie de complementos para Windows 3.11 y Windows 95 que los ayudaban a
funcionar mejor en un dispositivo con entrada Stylus, y finalmente Windows XP Tablet PC
Edition.
ThinkPad 700T
Vale destacar lo que IBM mostró con el ThinkPad 700T, usando una pantalla de 10.1
pulgadas a dos colores, CPU Intel 386SX/20, y hasta módem incluído, bajo el alero del
sistema operativo PenPoint OS recién mencionado, que era la apuesta de GO Corporation
para manejar dispositivos capaces de reconocer escritura manual.
También hay que señalar al Apple MessagePad bajo Newton OS, una apuesta independiente de la compañía para lograr también computación basada en lápices stylus. Porque en 1986 el CEO de Apple John Sculley comenzó el desarrollo de este aparato, el que sirve como ejemplo perfecto para mostrar cómo evolucionó la industria a partir de su lanzamiento el año 1993.
Mucho hemos hablado del pencomputing, ¿pero qué tiene que ver esto con los tablets? Sigamos al Apple MessagePad (más conocido como Newton) para entender mejor.
Este dispositivo se enfocó en desarrollar el
software necesario para reconocer la
escritura, siendo pensado inicialmente en los
años 80 como un tablet hecho y derecho. Sin
embargo, con su lanzamiento en 1993 y
reflejando la tendencia que necesitaba en ese
entonces la industria, estos esfuerzos fueron
utilizados en un nuevo formato llamado
Personal Digital Assistant (PDA), el cual tenía
un tamaño más reducido que diez pulgadas.
El MessagePad entonces poseía una CPU ARM
610 RISC corriendo a 20MHz, 640kB de
memoria RAM y una pantalla en blanco y negro táctil para un stylus. Este formato luego
sería ampliamente adoptado por otros fabricantes, masificando por primera vez
la computación portátil en un formato cercano al de los tablets actuales, pues la idea era
tener un tamaño pequeño, con pantalla táctil y bajo un sistema operativo móvil desde su
nacimiento, como lo era Newton OS y PenPoint OS.
Así, durante esta década compañías como Palm y su modelo Pilot se encargaron de
masificar un concepto nacido bastante tiempo atrás, con Dell, Sony y otros siguiéndole los
pasos y haciendo evolucionar estos dispositivos con pantallas a color y mejores
Este impulso y éxito de ventas por parte de Apple haría que el resto de los fabricantes reconociera el formato de una vez por todas, mostrándose durante este año 2010 innumerables modelos utilizando software Android, como el Samsung Galaxy Tab. Y pese a que el mercado está recién naciendo, cada día vemos propuestas más interesantes todavía, siendo éste el caso del PlayBook de RIM usando un software llamado QNX, basado en Unix pero enfocado a la portabilidad.
RIM BlackBerry PlayBook
De la misma forma está renaciendo la idea de usar Windows, con el actual CEO de Microsoft adelantando que falta por ver modelos de diversas compañías grandes usando Windows 7 y con su mayor exponente en el aún no estrenado HP Slate, marcando así la línea entre ambos tipos de productos.
¿Cuál corriente triunfará? ¿O tendremos un ecosistema con ambas? Sólo el tiempo dirá,
pues nos encontramos en un momento donde este nuevo paradigma está recién
madurando en forma definitiva y queda por ver si los tablets terminan por conquistar al
público y reemplazar parcialmente a los notebooks y desktops para quienes lo necesiten.
Planteamos la situación entonces, a ver si en cien años más para el “tricentenario” leemos
este artículo nuevamente con la respuesta a esta interrogante: ¿Cambiaron los tablets la
forma de entender la computación entre la población?