El sistema operativo es el programa
(o software) más importante de un ordenador. Para que funcionen los
otros programas, cada ordenador de uso general debe tener un sistema
operativo. Los sistemas operativos realizan tareas básicas, tales
como reconocimiento de la conexión del teclado, enviar la
información a la pantalla, no perder de vista archivos y directorios
en el disco, y controlar los dispositivos periféricos tales como
impresoras, escáner, etc.
En sistemas grandes, el sistema operativo tiene
incluso mayor responsabilidad y poder, es como un policía de
tráfico, se asegura de que los programas y usuarios que están
funcionando al mismo tiempo no interfieran entre ellos. El sistema
operativo también es responsable de la seguridad, asegurándose de
que los usuarios no autorizados no tengan acceso al sistema.
Los sistemas operativos pueden ser clasificados de la siguiente
forma:
Multiusuario:
Permite que dos o más usuarios utilicen sus programas al mismo
tiempo. Algunos sistemas operativos permiten a centenares o millares
de usuarios al mismo tiempo.
Multiprocesador:
soporta el abrir un mismo programa en más de una CPU.
Multitarea:
Permite que varios programas se ejecuten al mismo tiempo.
Multitramo:
Permite que diversas partes de un solo programa funcionen al mismo
tiempo.
Tiempo Real: Responde a las
entradas inmediata mente. Los sistemas operativos como DOS y UNIX, no
funcionan en tiempo real.
Los sistemas operativos proporcionan una plataforma
de software encima de la cual otros programas, llamados aplicaciones,
puedan funcionar. Las aplicaciones se programan para que funcionen
encima de un sistema operativo particular, por tanto, la elección
del sistema operativo determina en gran medida las aplicaciones que
puedes utilizar.
Los sistemas operativos más utilizados en
los PC son DOS, OS/2, y Windows, pero hay otros.
Un usuario normalmente interactúa con el sistema
operativo a través de un sistema de comandos, por ejemplo, el
sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos son
aceptados y ejecutados por una parte del sistema operativo llamada
procesador de comandos o intérprete de la línea de comandos.
En general, se puede decir que un Sistema Operativo
tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más
conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los
recursos de la computadora se usen de la manera más
eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo
deberá construirse de manera que permita el desarrollo, prueba o introducción
efectiva de nuevas funciones del sistema sin interferir con
el servicio.
Encargado de administrar el hardware. El Sistema
Operativo se encarga de manejar de una mejor manera los
recursos de la computadora en cuanto a hardware se refiere,
esto es, asignar a cada proceso
una parte del procesador para poder
compartir los recursos.
Relacionar dispositivos (gestionar a través
del kernel). El Sistema Operativo se debe encargar de
comunicar a los dispositivos periféricos, cuando el usuario
así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema
Operativo permite al usuario manejar con alta facilidad todo
lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través
del bus de
datos.
Facilitar las entradas y salidas. Un Sistema
Operativo debe hacerle fácil al usuario el acceso y
manejo de los dispositivos de Entrada/Salida de la
computadora.
Técnicas de recuperación de
errores.
Evita que otros usuarios interfieran. El Sistema
Operativo evita que los usuarios se bloqueen entre ellos,
informándoles si esa aplicación esta siendo
ocupada por otro usuario.
Un diagrama de flujo
representa la esquematización gráfica de un algoritmo , el
cual muestra
gráficamente los pasos o proceso a
seguir para alcanzar la solución de un problema . Su
correcta construcción es sumamente importante porque
, a partir del mismo se escribe un programa en
algún lenguaje deprogramación. Si el diagrama de
Flujo está completo y correcto
,el paso del mismo a un Lenguaje de
Programación es relativamente simple y
directo.
Es importante resaltar que el Diagrama de Flujo muestra el sistema como una red de
procesos funcionales conectados entre sí por "
Tuberías " y "Depósitos" de datos que permite
describir el movimiento de
los datos a través del Sistema. Este describirá :
Lugares de Origen y Destino de los datos , Transformaciones a las
que son sometidos los datos, Lugares en los que se almacenan los
datos dentro del sistema , Los canales por donde circulan los
datos. Además de esto podemos decir que este es una
representación reticular de un Sistema ,el cual lo
contempla en términos de sus componentes indicando el
enlace entre los mismos.
En el presente trabajo se representará a través de
un Diagrama de Flujo el procedimiento que
debe efectuarse para calcular el pago de los trabajadores de una empresa.
Línea ininterrumpida: Flujo de información vía formulario o documentación en soporte de papel escrito.
Línea interrumpida: Flujo de información vía formulario digital.
Rectángulo: Formulario o documentación. Se gráfica con un doble de ancho que su altura.
Rectángulo Pequeño: Valor o medio de pago (cheque, pagaré,
etcétera). Se gráfica con un cuádruple de ancho que su altura, siendo su
ancho igual al de los formularios.
Favorecen la comprensión del proceso al mostrarlo como un dibujo. El
cerebro humano reconoce muy fácilmente los dibujos. Un buen diagrama de
flujo reemplaza varias páginas de texto.
Permiten identificar los problemas y las oportunidades de mejora del
proceso. Se identifican los pasos, los flujos de los re-procesos, los
conflictos de autoridad, las responsabilidades, los cuellos de botella, y
los puntos de decisión.
Muestran las interfaces cliente-proveedor y las transacciones que en
ellas se realizan,
facilitando a los empleados el análisis de las
mismas.
Son una excelente herramienta para capacitar a los nuevos empleados y
también a los que desarrollan la tarea, cuando se realizan mejoras en
el proceso.
Al igual que el pseudocódigo , el diagrama de flujo con fines de análisis de algoritmos de programación puede ser ejecutado en un ordenador, con un IDE como Free DF.
En esta generación
había una gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio en esta época que
determinó que con veinte computadoras se saturaría el mercado de
los Estados Unidos en el campo de procesamiento de datos. Esta
generación abarco la década de los cincuenta. Y se conoce como la
primera generación.
Estas máquinas tenían las siguientes
características:
Usaban
tubos al vacío para procesar información.
Usaban
tarjetas perforadas para entrar los datos y los programas.
Usaban
cilindros magnéticos para almacenar información e instrucciones
internas.
Eran
sumamente grandes, utilizaban gran cantidad de electricidad,
generaban gran cantidad de calor y eran sumamente lentas.
Se
comenzó a utilizar el sistema binario para representar los datos.
En
esta generación las computadoras se reducen de tamaño y son de
menor costo. Aparecen muchas compañías y las computadoras eran
bastante avanzadas para su época como la serie 5000 de Burroughs y
la ATLAS de la Universidad de Manchester. Algunas computadoras se
programaban con cinta perforadas y otras por medio de cableado en un
tablero.
Características
de está generación:
Usaban
transistores para procesar información.
Los
transistores eran más rápidos, pequeños y más confiables que los
tubos al vacío.
200
transistores podían acomodarse en la misma cantidad de espacio que
un tubo al vacío.
Usaban
pequeños anillos magnéticos para almacenar información e
instrucciones. cantidad de calor y eran sumamente lentas.
Se
mejoraron los programas de computadoras que fueron desarrollados
durante la primera generación.
Se
desarrollaron nuevos lenguajes de programacion como COBOL y
FORTRAN, los cuales eran comercialmente accsesibles.
Se
usaban en aplicaciones de sistemas de reservaciones de líneas
aéreas, control del tráfico aéreo y simulaciones de propósito
general.
La
marina de los Estados Unidos desarrolla el primer simulador de
vuelo, "Whirlwind I".
Surgieron
las minicomputadoras y los terminales a distancia.
Se
comenzó a disminuir el tamaño de las computadoras.
La
tercera generación de computadoras emergió con el desarrollo de
circuitos integrados (pastillas de silicio) en las que se colocan
miles de componentes electrónicos en una integración en miniatura.
Las computadoras nuevamente se hicieron más pequeñas, más
rápidas, desprendían menos calor y eran energética mente más
eficientes. El ordenador IBM-360 dominó las ventas de la tercera
generación de ordenadores desde su presentación en 1965. El PDP-8
de la Digital Equipment Corporation fue el primer miniordenador.
Características
de está generación:
Se
desarrollaron circuitos integrados para procesar información.
Se
desarrollaron los "chips" para almacenar y procesar la
información. Un "chip" es una pieza de silicio que
contiene los componentes electrónicos en miniatura llamados
semiconductores.
Los
circuitos integrados recuerdan los datos, ya que almacenan la
información como cargas eléctricas.
Surge
la multiprogramación.
Las
computadoras pueden llevar a cabo ambas tareas de procesamiento o
análisis matemáticos.
Emerge
la industria del "software".
Se
desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra
vez las computadoras se tornan más pequeñas, más ligeras y más
eficientes.
Consumían
menos electricidad, por lo tanto, generaban menos calor.
Aparecen los
microprocesadores que es un gran adelanto de la microelectrónica,
son circuitos integrados de alta densidad y con una velocidad
impresionante. Las micro computadoras con base en estos circuitos son
extremadamente pequeñas y baratas, por lo que su uso se extiende al
mercado industrial. Aquí nacen las computadoras personales que han
adquirido proporciones enormes y que han influido en la sociedad en
general sobre la llamada "revolución informática".
Características de
está generación:
Se
desarrolló el microprocesador.
Se
colocan más circuitos dentro de un "chip".
"LSI
- Large Scale Integration circuit".
"VLSI
- Very Large Scale Integration circuit".
Cada
"chip" puede hacer diferentes tareas.
Un
"chip" sencillo actualmente contiene la unidad de control
y la unidad de aritmética/lógica. El tercer componente, la memoria
primaria, es operado por otros "chips".
Se
reemplaza la memoria de anillos magnéticos por la memoria de
"chips" de silicio.
Se
desarrollan las microcomputadoras, o sea, computadoras personales o
PC.
En
vista de la acelerada marcha de la microelectrónica, la sociedad
industrial se ha dado a la tarea de poner también a esa altura el
desarrollo del software y los sistemas con que se manejan las
computadoras. Surge la competencia internacional por el dominio del
mercado de la computación, en la que se perfilan dos líderes que,
sin embargo, no han podido alcanzar el nivel que se desea: la
capacidad de comunicarse con la computadora en un lenguaje más
cotidiano y no a través de códigos o lenguajes de control
especializados.
Japón
lanzó en 1983 el llamado "programa de la quinta generación de
computadoras", con los objetivos explícitos de producir
máquinas con innovaciones reales en los criterios mencionados. Y en
los Estados Unidos ya está en actividad un programa en desarrollo
que persigue objetivos semejantes, que pueden resumirse de la
siguiente manera:
Se desarrollan las
microcomputadoras, o sea, computadoras personales o PC.
Se
desarrollan las supercomputadoras.
Inteligencia
artíficial:
La
inteligencia artificial es el campo de estudio que trata de aplicar
los procesos del pensamiento humano usados en la solución de
problemas a la computadora.
Robótica:
La
robótica es el arte y ciencia de la creación y empleo de robots. Un
robot es un sistema de computación híbrido independiente que
realiza actividades físicas y de cálculo. Están siendo diseñados
con inteligencia artificial, para que puedan responder de manera más
efectiva a situaciones no estructuradas.
Sistemas
expertos:
Un
sistema experto es una aplicación de inteligencia artificial que usa
una base de conocimiento de la experiencia humana para ayudar a la
resolución de problemas.
Redes
de comunicaciones:
Los
canales de comunicaciones que interconectan terminales y computadoras
se conocen como redes de comunicaciones; todo el "hardware"
que soporta las interconexiones y todo el "software" que
administra la transmisión.
La Web 2.0 es la representación de la evolución de
las aplicaciones tradicionales hacia aplicaciones web enfocadas al
usuario final. El Web 2.0 es una actitud y no precisamente una
tecnología.
La Web 2.0 es la transición que se ha dado de aplicaciones
tradicionales hacia aplicaciones que funcionan a través del web
enfocadas al usuario final. Se trata de aplicaciones que generen
colaboración y de servicios que reemplacen las aplicaciones de
escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está
preocupándose por brindar mejores soluciones para el usuario final.
Muchos aseguran que hemos reinventado lo que era el Internet, otros
hablan de burbujas e inversiones, pero la realidad es que la evolución
natural del medio realmente ha propuesto cosas más interesantes como lo
analizamos diariamente en las notas de actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de OREILLI MEDIA
utilizó este término en una conferencia en la que compartió una lluvia
de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba
del renacimiento y evolución de la web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la web 2.0 conferece
que arranca en el 2004 y hoy en día se realiza anualmente en San
Francisco, con eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:
La web es la plataforma
La información es lo que mueve al Internet
Efectos de la red movidos por una arquitectura de participación.
La innovación surge de características distribuidas por desarrolladores independientes.
El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo
La Web 1.0 (el término que se utiliza para denominar el antes de
Web 2.0) se trataba de un grupo de páginas casi estáticas donde la
gente podía observar contenidos predeterminados. Con la aparición de
sistemas basados en Web (correos electrónicos, compras en línea, foros
de discusión, entre otros), la Web se convirtió en un espacio no sólo
para obtener datos, sino para enviarlos, modificarlos y hacer
transacciones económicas con ellos. La Web se convirtió en una
plataforma donde la gente intercambiaba ideas, mensajes o productos de
acuerdo a sus necesidades, aunque los desarrolladores seguían viéndola
como un grupo de páginas.
Con los avances tecnológicos se ha permitido la creación de
aplicaciones sobre Internet, o RIA (Rich Internet Applications) que no
solo permiten la interacción lineal entre cliente y el servidor. Antes
el usuario veía una página, seleccionaba productos o escribía textos,
modificaba órdenes o parámetros y tenía que pulsar sobre algún botón
para procesar dichas transacciones. Con las nuevas tecnologías el
usuario puede hacer transacciones sin cambiar de página, teniendo todos
los procesos en un segundo plano y, en muchos casos, eliminando el uso
de botones, pues la acción realizada por el usuario es inmediata y
automática.
Técnicas como el arrastrado (drag & drop) que antes eran
exclusivas para aplicaciones de escritorio, ahora son posibles en la
Web, gracias a los avances tecnológicos. Protocolos como Ajax, RSS y
el lenguaje XHTML están cambiando la forma en que la Internet
interactúa con las personas, pues no sólo se ven afectados los tiempos y
la capacidad de interacción, sino también la forma de hacerlo.
Requisitos
para el uso didáctico de las aplicaciones Web 2.0.
Infraestructuras.
El aprovechamiento óptimo de la Web 2.0 basada en las interacciones
personales, exige el trabajo individual o en pequeño grupo ante un ordenador
y en el ciberespacio. Por ello se requiere:
EN
EL CENTRO DOCENTE. Una intranet educativa, y las aulas de clase deberían tener conexión a
Internet y ordenadores suficientes para los estudiantes (desplazarse al aula de
informática resulta incómodo y suele inhibir la utilización
de estos recursos).
EN CASA. A veces convendrá que los estudiantes puedan seguir trabajando
en casa, necesitarán disponer de ordenador con conexión a Internet.
También será necesario para familias y escuela que puedan estar
en contacto on-line. Por ello, deberían intensificarse las ayudas estatales
para que las familias con menos recursos puedan adquirir un ordenador para su
casa y sería deseable que hubiera una conexión a Internet de baja
velocidad gratuita para todos.
EL
PROFESORADO. Para poder preparar materiales y actividades y hacer el seguimiento
de los trabajos virtuales de los estudiantes, el profesorado necesitará
tener un buen equipo siempre a su disposición en el centro y también
en su casa (se sugiere que disponga de un ordenador portátil).
LA
CIUDAD. Conviene que los municipios dispongan de una red de mediatecas (bibliotecas,
centros cívicos, zonas wifi...) donde todos los ciudadanos puedan acceder
a Internet cuando lo necesiten. De esta manera, se compensa un poco la brecha
digital que sufren quienes no disponen de conexión a Internet en su casa.
Competencias necesarias de los estudiantes. Trabajando
con la Web 2.0, los estudiantes serán más autónomos en el
acceso a la información y para la construcción de sus conocimientos,
pero para ello necesitan unas competencias específicas:
Competencias
digitales: navegar (buscar, seleccionar, valorar... en Internet), procesar la
información con los medios informáticos para elaborar su conocimiento,
expresarse y comunicarse con otros en el ciberespacio, conocer sus riesgos (plagio,
spam, anonimato, falsedad...), usar las aplicaciones Web 2.0.
Competencias sociales: trabajo en equipo, respeto, responsabilidad... Otras competencias: aprendizaje autónomo, capacidad crítica, imaginación,
creatividad, adaptación al entorno cambiante, resolución de problemas,
iniciativa...
Formación y actitud favorable del profesorado. Los docentes
se han de sentir seguros al utilizar la tecnología en su actividad didáctica,
y para ello requieren:
Competencias
digitales generales, como los estudiantes.
Competencias
didácticas:aplicar modelos didácticos de uso de las aplicaciones
Web 2.0, bien contextualizados a los alumnos y objetivos educativos que se persiguen.
Gestión
de aulas con muchos ordenadores con reglas claras que regulen la utilización
de los recursos (resulta difícil para muchos profesores).
Actitud
favorable hacia la integración de las TIC en su quehacer docente. Para
ello, entre otras cosas, es necesario un reconocimiento del tiempo extra de dedicación
que en algunos casos (gestión de plataformas de teleformación, creación
de contenidos...) exige el uso didáctico de las TIC.
En ocasiones se ha relacionado el término Web 2.0 con el de web semántica
Sin embargo ambos conceptos, corresponden más bien a estados evolutivos
de la web, y la Web semántica correspondería en realidad a una
evolución posterior, a la web 3.0 o web inteligente. La combinación de sistemas de redes sociales como facebook, twitter, foaf y xfn, con el desarrollo de etiquetas (o tags), que en su uso social derivan en folcsonomias, así como el plasmado de todas estas tendencias a través de blogs y wikis,
confieren a la Web 2.0 un aire semántico sin serlo realmente. Sin
embargo, en el sentido más estricto para hablar de Web semántica, se
requiere el uso de estándares de metadatos como Dublin Core y en su
forma más elaborada de ontologias
y no de folcsonomías. De momento, el uso de ontologías como mecanismo
para estructurar la información en los programas de blogs es anecdótico y
solo se aprecia de manera incipiente en algunos wiki.4
Por tanto podemos identificar la web semantica
como una forma de Web 3.0. Existe una diferencia fundamental entre
ambas versiones de web (2.0 y semántica) y es el tipo de participante y
las herramientas que se utilizan. La 2.0 tiene como principal
protagonista al usuario humano que escribe artículos en su blog o colabora en un wiki. El requisito es que además de publicar en HTML emita parte de sus aportaciones en diversos formatos para compartir esta información como son los RSS, ATOM, etc. mediante la utilización de lenguajes estándares como el XML. La web semntica, sin embargo, está orientada hacia el protagonismo de procesadores de información que entiendan de descriptiva en diversos lenguajes más elaborados de metadatos como SPARQL,5 POWDER6 u OWL
que permiten describir los contenidos y la información presente en la
web, concebida para que las máquinas "entiendan" a las personas y
procesen de una forma eficiente la avalancha de información publicada en
la Web.
La Web 2.0 ha originado la democratización de los medios haciendo que
cualquiera tenga las mismas posibilidades de publicar noticias que un
periódico tradicional. Grupos de personas crean blogs que al día de hoy
reciben más visitas que las versiones online de muchos periódicos. La
Web 2.0 ha reducido considerablemente los costes de difusión de la
información. Al día de hoy podemos tener gratuitamente nuestra propia
emisora de radio online, nuestro periódico online, nuestro canal de
vídeos, etc. Al aumentar la producción de información aumenta la
segmentación de la misma, lo que equivale a que los usuarios puedan
acceder a contenidos que tradicionalmente no se publican en los medios
convencionales.