HERRAMIENTAS DE LA WEB 2.0

jueves, 15 de noviembre de 2018



Web 2.0 es un concepto que se acuñó en 2003 y que se refiere al fenómeno social surgido a partir del desarrollo de diversas aplicaciones en Internet. El término establece una distinción entre la primera época de la Web (donde el usuario era básicamente un sujeto pasivo que recibía la información o la publicaba, sin que existieran demasiadas posibilidades para que se generara la interacción) y la revolución que supuso el auge de los blogs, las redes sociales y otras herramientas relacionadas

La Web 2.0, por lo tanto, está formada por las plataformas para la publicación de contenidos, como Blogger, las redes sociales, como Facebook, los servicios conocidos como wikis(Wikipedia) y los portales de alojamiento de fotos, audio o vídeos (FlickrYouTube). La esencia de estas herramientas es la posibilidad de interactuar con el resto de los usuarios o aportar contenido que enriquezca la experiencia de navegación.
Es importante tener en cuenta que no existe una definición precisa de Web 2.0, aunque es posible aproximarse a ella estableciendo ciertos parámetros. Una página web que se limita a mostrar información y que ni siquiera se actualiza, forma parte de la generación 1.0. En cambio, cuando las páginas ofrecen un nivel considerable de interacción y se actualizan con los aportes de los usuarios, se habla de Web 2.0.
Cabe mencionar que las diferencias entre la primera y la segunda era de la Web no se basan en un cambio a nivel tecnológico en los servidores, aunque naturalmente se ha dado un considerable avance en el hardware; es el enfoque de la Red, los objetivos y la forma en la que los usuarios comenzaron a percibir la información en línea lo que caracteriza este renacer, que tuvo lugar silenciosa pero velozmente, a comienzos del nuevo milenio.
Hasta entonces, Internet era un universo de datos mayoritariamente estáticos, una fuente de consulta revolucionaria que atraía a millones de personas a contemplarla pasivamente. Si bien los foros y el chat datan de la Web 1.0, éstos se encontraban bien diferenciados de los sitios tradicionales (tal y como ocurre en la actualidad); navegar era similar a visitar un gran centro comercial, con infinidad de tiendas, en las cuales era posible comprar productos, pero no alterar sus vidrieras.
Con la llegada de la Web 2.0, se produjo un fenómeno social que cambió para siempre nuestra relación con la información, principalmente porque nos hizo parte de ella: en la actualidad, una noticia acerca de una manifestación en contra del maltrato animal no está completa sin mostrar cuántos usuarios de Facebook leyeron y disfrutaron de la misma, qué porcentaje de lectores está a favor del movimiento, y los comentarios, que muchas veces aportan datos importantes o señalan errores.
Web 2.0
Como ocurre con cualquier hito en la historia de la humanidad, la democracia asociada a la Web 2.0 ha impactado seriamente en los medios de comunicación tradicionales, principalmente en aquéllos que no supieron adaptarse a esta nueva ola de libertades. La última década ha visto el nacimiento de diversos periódicos y revistas independientes que han sabido establecerse y conseguir un gran éxito a nivel mundial, opuesto al decaimiento de antiguos colosos.
No es fácil para los periodistas aceptar que bajo un artículo que les tomó días de investigación y elaboración los usuarios tengan el derecho a insultarlos y despreciarlos, a amenazar a sus familias o a colgar foto montajes con su cara; pero éstas son algunas de las consecuencias negativas de la Web 2.0, y solamente aceptándolas y evitando astutamente los abusos es posible alcanzar el éxito sin morir en el intento.
Algunos expertos asocian la Web 3.0 a la Web semántica, que consiste en la inclusión de metadatos semánticos u ontológicos (que describen los contenidos y las relaciones entre los datos) para que puedan ser rastreados por sistemas de procesamiento.

REALIZADO: CHRISTIAN FIALLOS

El Software y Hardware


SOFTWARE

El software es una palabra que proviene del idioma inglés, pero que gracias a la masificación de uso, ha sido aceptada por la Real Academia Española. Según la RAE, el software es un conjunto de programas, instrucciones y reglas informáticas que permiten ejecutar distintas tareas en una computadora.
Software
Se considera que el software es el equipamiento lógico e intangible de un ordenador. En otras palabras, el concepto de software abarca a todas las aplicaciones informáticas, como los procesadores de textos, las planillas de cálculo y los editores de imágenes.
El software es desarrollado mediante distintos lenguajes de programación, que permiten controlar el comportamiento de una máquina. Estos lenguajes consisten en un conjunto de símbolos y reglas sintácticas y semánticas, que definen el significado de sus elementos y expresiones. Un lenguaje de programación permite a los programadores del software especificar, en forma precisa, sobre qué datos debe operar una computadora.
Dentro de los tipos de software, uno de los más importantes es el software de sistema o software de base, que permite al usuario tener el control sobre el hardware(componentes físicos) y dar soporte a otros programas informáticos. Los llamados sistemas operativos, que comienzan a funcionar cuando se enciende la computadora, son software de base.
Imagen relacionada
La industria del desarrollo de software se ha convertido en un protagonista importante dentro de la economía global, ya que mueve millones de dólares al año. La compañía más grande y popular del mundo es Microsoft, fundada en 1975 por Bill Gates y Paul Allen. Esta empresa logró trascender gracias a su sistema operativo Windows y a su suite de programas de oficina Office.
HARDWARE
El origen etimológico del término hardware que ahora vamos a analizar en profundidad lo encontramos claramente en el inglés. Y es que aquel está conformado por la unión de dos vocablos de la lengua anglosajona: hard que puede traducirse como “duro” y ware que es sinónimo de “cosas”.
Hardware

En el caso de la informática y de las computadoras personales, el hardware permite definir no sólo a los componentes físicos internos (disco duro, placa madre, microprocesador, circuitos, cables, etc.), sino también a los periféricos (escáners, impresoras).
El hardware suele distinguirse entre básico (los dispositivos necesarios para iniciar el funcionamiento de un ordenador) y complementario(realizan ciertas funciones específicas).
En cuanto a los tipos de hardware, pueden mencionarse a los periféricos de entrada (permiten ingresar información al sistema, como el teclado y el mouse), los periféricos de salida (muestran al usuario el resultado de distintas operaciones realizadas en la computadora. Ejemplo: monitor, impresora), los periféricos de entrada/salida (módems, tarjetas de red, memorias USB), la unidad central de procesamiento o CPU (los componentes que interpretan las instrucciones y procesan los datos) y la memoria de acceso aleatorio o RAM (que se utiliza para el almacenamiento temporal de información).
En el caso de lo que es la memoria RAM tenemos que subrayar además que existe una clasificación de la misma en dos grandes categorías. Así, por un lado, tenemos lo que se conoce como dinámicas, el conjunto de tarjetas que en los ordenadores están conectadas al bus de memoria de la placa base, y por otro lado están las especiales. Estas últimas, al contrario que las anteriores, no se utilizan en las computadoras como memoria central.
Entre estas últimas habría que destacar las VRAM (Video Random Access Memory), las SRAM (Static Random Acces Memory) y las NVRAM (Non-Volatile Random Access Memory).
La historia del desarrollo del hardware, por otra parte, marca diversos hitos y etapas. Se habla de una primera generación (con tubos de vidrio que albergaban circuitos eléctricos), una segunda generación (con transistores), una tercera generación (que permitió empaquetar cientos de transistores en un circuito integrado de un chip de silicio) y una cuarta generación (con el advenimiento del microprocesador). El avance en los estudios sobre nanotecnología permite prever la aparición de un hardware más avanzado en los próximos años.
Además de toda la información expuesta hasta el momento tampoco podemos pasar por alto lo que se conoce como hardware libre. Este es un concepto de gran importancia en el sector pues hace referencia al conjunto de dispositivos que se caracterizan por el hecho de que cualquier persona, bien de forma gratuita o bien mediante el pago de una determinada cantidad, puede acceder de manera pública a lo que son sus especificaciones.
En concreto, este tipo de hardware puede clasificarse tomando como punto de partida su naturaleza, lo que dará lugar a dos categorías (estático o reconfigurable), o según su filosofía. En este último caso nos encontraremos, por ejemplo, con el libre hardware design o con el open source hardware.
Realizado por: Katerin  Lizeth  Coello  Villacis

El Computador

 DEFINICIÓN DE
COMPUTADORA

La computadora, ese equipo indispensable en la vida cotidiana de hoy en día que también se conoce por el nombre de computador u ordenador, es una máquina electrónica que permite procesar y acumular datos. El término proviene del latín computare (“calcular”).
Resultado de imagen para el computador laptop razer

Si buscamos la definición exacta del término computadora encontraremos que se trata de una máquina electrónica capaz de recibir, procesar y devolver resultados en torno a determinados datos y que para realizar esta tarea cuenta con un medio de entrada y uno de salida. Por otro lado, que un sistema informático se compone de dos subsistemas que reciben los nombres de software y hardware, el primero consiste en la parte lógica de la computadora (programas, aplicaciones, etc) el segundo en la parte física (elementos que la forman como mother, ventilador, memoria RAM).

Para su funcionamiento, la computadora requiere de programas informáticos (software) que aportan datos específicos, necesarios para el procesamiento de información. Una vez obtenida la información deseada, ésta puede ser utilizada internamente o transferida a otra computadora o componente electrónico.

A grandes rasgos una computadora se encuentra compuesta por el monitor, el teclado, el mouse, la torre (donde se encuentra el disco duro y los demás componentes del hardware) y la impresora, y cada uno cumple una función particular. Por otro lado, este aparato se encuentra preparado para realizar dos funciones principalmente: responder a un sistema particular de comandos de una forma rápida y ejecutar programas, los cuales consisten en una serie de instrucciones grabadas con antelación.


Resultado de imagen para partes de una computadora

El software de una computadora es uno de los elementos fundamentales para su funcionamiento, su sistema operativo, qie consiste en una gran plataforma donde pueden ejecutarse los programas, aplicaciones o herramientas que sirven para realizar diferentes tareas.

El hardware por su parte, se encuentra formado por la memoria(permite almacenar datos y programas), dispositivos de entrada (para introducir los datos en el ordenador, ej: mouse y teclado), dispositivos de salida (para visualizar los datos, ej: pantalla o impresora) y CPU (cerebro del ordenador donde se ejecutan las instrucciones. La sigla es la forma en inglés de Unidad Central de Proceso.

Las primeras computadoras aparecieron a mediados del siglo pasado, desde entonces no han dejado de fabricarse, creciendo a pasos agigantados. Pese a ello la mayoría de las computadoras de hoy en día todavía respeta la arquitectura Eckert-Mauchly, publicada por John von Neumann y creada por John Presper Eckert y John William Mauchly.

Esta arquitectura concibe cuatro secciones principales en una computadora: la unidad lógica y aritmética (Arithmetic Logic Unit – ALU), la unidad de control, la memoria (una sucesión de celdas de almacenamiento que tienen número, donde cada celda representa una unidad de información conocida como bit) y los dispositivos de entrada y salida. Todas estas partes se encuentran interconectadas por un grupo de cables denominados buses.

Las conexiones dentro de una computadora reciben el nombre de circuitos electrónicos; los más complejos son los incluidos en los chips de los microprocesadores modernos, que tienen dentro una ALU muy poderosa. Cada microprocesador puede contar con múltiples núcleos y estos a su vez con múltiples unidades de ejecución (cada una de ellas tiene distintas ALU).

Cabe señalar que los circuitos junto a aquellos componentes vinculados a ellos permiten ejecutar una variedad de secuencias o rutinas de instrucciones ordenadas por el usuario. Estas secuencias son sistematizadas en función de una amplia pluralidad de aplicaciones prácticas y específicas, en un proceso que se denomina como programación.

De acuerdo a la manera en la que la computara trabaja los datos que recibe puede llamarse: digital, analógica o híbrida. Las digitales procesan los datos trabajando en base a letras y símbolos especiales, las analógicas lo hacen utilizando una escala común y las híbridas utilizan ambas formas.

Existen varios tipos de computadoras: Microcomputadoras (dispositivos pequeños que pueden recibir una programación, en esta clasificación entran las PC o computadoras de escritorio), minicomputadoras (de tamaño medio y un poco más costosas que la PC), maxicomputadoras (sirven para controlar muchos dispositivos simultaneamente, en esta clasificación entran las llamadas mainframe) y supercomputadoras (son las más rápidas y costosas, las utilizadas para la realización de proyectos a grande escala como películas o videojuegos de última generación)


Resultado de imagen para varios tipos de computadoras

Algunos ejemplos de frases con este concepto: “Mi padre me regaló una computadora cuando cumplí quince años”, “No sé qué hacer: se me rompió la computadora”, “Tengo cuatro juegos nuevos en la computadora”.

Realizado por: William Alexander Chicaiza Sagal.