Nombre: Wilber (Willy)
Apellido: Quispe Moscoso.
Fecha de Nac: 23 de julio de 1988
Edad: 19
Signo: Leo
Comida Favorita: Ceviche
Preferecias: Peliculas Orientales(art martial)
iori
domingo, 5 de agosto de 2007
BIOGRAFIA
Bueno para empezar mi nombre es wilber pero mis amigos me dicen Willy, mi historia comienza el 23 de julio de 19... bla bla ... .
era el mejor dia para mis padres ya que ellos ya sabian que aquel dia nacia su ultimo hijo varon y por consiguiente el mejor.
comenze a en abancay, inicial.y primaria solo el primer y segundo grado, volvi a mi tierra natal huancayo por motivos que no puedo contar pero en ahi termine mis estudios primarios, despues di mi9 examen para ingresar al colegio (era tecnico) como todos lo hicimos, supongo? al momento de la matricula se avian agotado las vacantas para la especialidad a la que ya habia ingresado por eso me matricule un en una especialidad para chicas (enfermeria) estudie el primer y segundo año,fueron primeros mejores años de estudios porque era el unico hombre y al que todos debian engreir.
Para el tercer año pues me cambiaron a otra especialidad(electronica) fue chocante pues nuevos amigos y todos varones, fue raro por que ya me habia acostumbrado a estar con solo chicas, tenia que adaptarme o seria la burla de todos, entonces hacia todo lo que ellos hacian solo repetia lo que hacian hasta que poco a poco lo hacia por propia iniciativa y dije ¡ vaya lo hice solo! fue ahi cuando recien se hicierion amigos mios y comenzo la verdadera diversion.
El 23 de setiembre dia de la primavera salimos de paseo y fue la primera vez que yo salia de paseo, nos diveritmos un monton, jugamos,comimos,dormimos y volvimos a jugar. A partir de ese momento todo eso se volveria ritual haci que todos los años en aquella fecha nos reuniamos para poder recordar nuestros años maravillosos.
En quinto año cuando pensavamos que por fin ya no veriamos a los profesores que tanto odiabamos prepaparando las nuevas bromas que ivamos ha hacer y los nuevos apodos que nos correspondian y como transcursa el tiempo nos comezariamos a decir se fue al tacho por que dividieron a mi salon en dos y la mitad de mis compañeros se fueron a otro y en lugar de ellos vinieron las chicas de otro salon, las cuales yo ya conocia por que habia estado dos años con ellas, para mi fue normal pero para mis amigos era algo catastrofico y es q ellos estaban en la etapa en la que el varon aborrece a la mujer. paso el tiempo y tambien se acostumbraron,disfrutamos de otra manera el paseo y lo mejos fue el viaje de iscursion, hicimos un tour por ica, cañete, pisco, nazca, paracas, y toda lo que se encontraba en la panamericana sur. despues la fiesta de promocion en ahi hicimos el ridiculo porque nadie sabia bailar.
Termino el año escolar y pensabamos por fin termino pero cuanto mas nos alejabamos uno de los otros pues reconsiderabamos y decian todos a una solo voz y con lagrimas en los ojos "TUPAC AMARU" no quiero alejarme de ti , tu que sabes todo lo que hicimos en estos 5 años y nadie queria alejarse del colegio,despues de eso comenzamos el alejamiento nos encontrabamos con algunos y debes en cuando, lo unico que nos preguntabamos era ¿extrañas el cole?- y respondia-daria lo que sea para que el ultimo dia nunca llegara, pero en fin la vida continua y tuvimos que sobreponernos asi q como todo joven pensar en futuro y postular a la universidad .
Pero no todos alcazamos esa meta por que las nesesidades nos lo impedian, la mayoria tuvimos que trabajar conocimos nuevos amigos y amigas y comienza la verdadera vida , cfonocia a la niña mas linda nos enamoramos estuvimos un tiempo despues y la desgraciada me dejo por un anciano - dime es justo eso? me sobrepuse de mi primera decepcion y jure que ninguna mujer se volveria a burlar de mi corazoncito,claro mas zoncito que corazon.
despues de todo eso me vine para abancay de pasada pero ingre a la UNAMBA y me quede ahora estudio la mejor carreara que podri existir, saben algo? de todo lo que anteriormente mencione y no mencione es que extaño mucho a mis tres novias cynthia, Mayra,(mis hermanas)y la preferida Celeste(mi madre) . y ahora hablemos de ti por que me encanta que estes ahi, no saber quien eres, ni de donde eres, y eso habre todas las puertas para conocernos
yo soy willy el UNICO
IIS
ACERCA DE LA CARRERA
La Universidad Nacional Micaela Bastidas de Apurímac, mediante la carrera profesional de Ingeniería Informática y de Sistemas, tiene como finalidad la formación integral de alta calidad, en el campo científico, tecnológico y humanístico, con visión de futuro, incentivada para actuar con creatividad, criticidad e innovación, prioritariamente en el campo de la Ingeniería Informática y de Sistemas. Su accionar está sustentado en valores éticos para lograr profesionales serios y confiables, altamente competitivos en el mercado laboral, con un firme compromiso de servicio a la comunidad social para impulsar el desarrollo sostenido de la región Apurímac, del país y del mundo. La carrera profesional de Ingeniería Informática y de Sistemas, forma profesionales con conocimientos y técnicas necesarias para analizar, diseñar y administrar sistemas y tecnología de la información. Está orientada a la generación de soluciones tecnológicas que faciliten la gestión empresarial y la toma de decisiones mediante un adecuado manejo de la información
OBJETIVOS
1. FORMACIÓN PROFESIONAL
Los alumnos adquirirán conocimientos e instrumentos especializados de la Ingeniería Informática y de Sistemas, así como las habilidades y destrezas que los capaciten para el ejercicio profesional con alto sentido social y dominio científico. El egresado de la carrera profesional de Ingeniería Informática y de Sistemas, de la Universidad Nacional Micaela Bastidas de Apurímac, deberá conocer y comprender con amplitud y profundidad los fundamentos teóricos, las técnicas y las aplicaciones de la Ingeniería Informática y Sistemas basándose en los siguientes tópicos:
a) Matemática
b) Física
c) Informática
d) Sistemas
e) Algoritmos y programación
f) Base de datos
g) Redes de computadoras y telecomunicaciones
h) Administración de tecnologías de la información
i) Análisis y diseño de sistemas de información
j) Ingeniería de software
k) Investigación, etc.
2. FORMACIÓN HUMANÍSTICA, CIENTÍFICA Y CULTURAL.
Los alumnos de la carrera profesional Ingeniería Informática y Sistemas, desarrollarán una visión amplia con criterios científicos y con relación al hombre y el mundo cultural en que vive, evitando una consecuente estrechez de concepción y perspectiva. Ello ayudará a adquirir mejores posibilidades de desarrollo personal y contribuirá a su desempeño profesional a través del desarrollo de una actitud humanista, científica, realista y justa.
El logro de este objetivo, evitará la formación de profesionales limitados a su especialidad. Para ello, el estudiante debe conocer temas de cultura general, relacionados con las siguientes asignaturas:
a) Redacción y Argumentación
b) Historia del Perú y del Mundo
c) Realidad Nacional
d) Filosofía
e) Economía
f) Psicología
g) Ecología
h) Geografía y Recursos Naturales
3. DESARROLLO DE CAPACIDADES Y HABILIDADES INTELECTUALES
El titulado en Ingeniería Informática y de Sistemas, cultiva sus capacidades intelectuales con el propósito de manejar teorías, procedimientos y técnicas para resolver situaciones nuevas, con eficiencia y propiedad.
El logro de estos objetivos, permitirá que el egresado de esta carrera sea capaz de adquirir hábitos y habilidades de reflexión para el análisis, interpretación y solución de problemas con criterio científico, para mejorar la acción creadora, en el trabajo disciplinado y en equipo, para valorar situaciones nuevas con realismo y objetividad.
4. FORMACIÓN ÉTICO-SOCIAL.
Tiende a la formación de valores para el desempeño profesional responsable solidario con los grupos humanos y con la comunidad, justo en sus apreciaciones y acciones, basados en el trato y respeto de los derechos de los demás. El cumplimiento de este objetivo, permitirá que el egresado de la carrera profesional de Ingeniería Informática y Sistemas de la UNAMBA, sea capaz de tener una acrisolada honradez y honestidad, que garantice seriedad y confianza en el desempeño de su profesión y en el desenvolvimiento diario de su trabajo.
1. FORMACIÓN PROFESIONAL
Los alumnos adquirirán conocimientos e instrumentos especializados de la Ingeniería Informática y de Sistemas, así como las habilidades y destrezas que los capaciten para el ejercicio profesional con alto sentido social y dominio científico. El egresado de la carrera profesional de Ingeniería Informática y de Sistemas, de la Universidad Nacional Micaela Bastidas de Apurímac, deberá conocer y comprender con amplitud y profundidad los fundamentos teóricos, las técnicas y las aplicaciones de la Ingeniería Informática y Sistemas basándose en los siguientes tópicos:
a) Matemática
b) Física
c) Informática
d) Sistemas
e) Algoritmos y programación
f) Base de datos
g) Redes de computadoras y telecomunicaciones
h) Administración de tecnologías de la información
i) Análisis y diseño de sistemas de información
j) Ingeniería de software
k) Investigación, etc.
2. FORMACIÓN HUMANÍSTICA, CIENTÍFICA Y CULTURAL.
Los alumnos de la carrera profesional Ingeniería Informática y Sistemas, desarrollarán una visión amplia con criterios científicos y con relación al hombre y el mundo cultural en que vive, evitando una consecuente estrechez de concepción y perspectiva. Ello ayudará a adquirir mejores posibilidades de desarrollo personal y contribuirá a su desempeño profesional a través del desarrollo de una actitud humanista, científica, realista y justa.
El logro de este objetivo, evitará la formación de profesionales limitados a su especialidad. Para ello, el estudiante debe conocer temas de cultura general, relacionados con las siguientes asignaturas:
a) Redacción y Argumentación
b) Historia del Perú y del Mundo
c) Realidad Nacional
d) Filosofía
e) Economía
f) Psicología
g) Ecología
h) Geografía y Recursos Naturales
3. DESARROLLO DE CAPACIDADES Y HABILIDADES INTELECTUALES
El titulado en Ingeniería Informática y de Sistemas, cultiva sus capacidades intelectuales con el propósito de manejar teorías, procedimientos y técnicas para resolver situaciones nuevas, con eficiencia y propiedad.
El logro de estos objetivos, permitirá que el egresado de esta carrera sea capaz de adquirir hábitos y habilidades de reflexión para el análisis, interpretación y solución de problemas con criterio científico, para mejorar la acción creadora, en el trabajo disciplinado y en equipo, para valorar situaciones nuevas con realismo y objetividad.
4. FORMACIÓN ÉTICO-SOCIAL.
Tiende a la formación de valores para el desempeño profesional responsable solidario con los grupos humanos y con la comunidad, justo en sus apreciaciones y acciones, basados en el trato y respeto de los derechos de los demás. El cumplimiento de este objetivo, permitirá que el egresado de la carrera profesional de Ingeniería Informática y Sistemas de la UNAMBA, sea capaz de tener una acrisolada honradez y honestidad, que garantice seriedad y confianza en el desempeño de su profesión y en el desenvolvimiento diario de su trabajo.
MI CURSO FAVORITO
Mi curso favorito o el que mas disfruto es Matematica Basica es por ese motivo que lo llevare dos veces.
tambien el otro podria ser Geografia y recursos Naturales
RECURSOS NATURALES
RECURSOS NATURALES
El hombre es el principal consumidor que puebla la Tierra. Su acción depredadora se ha intensificado, alcanzando un alto grado de desarrollo que afecta animales, plantas y minerales. Con el avance y desarrollo en el campo científico y tecnológico, el hombre adquiere cada día un mayor dominio sobre la naturaleza, aplicando técnicas para la explotación de los recursos naturales.
Según la Legislación peruana, se entiende por Recursos Naturales todo componente de la naturaleza, susceptible de ser aprovechado por el ser humano para la satisfacción de sus necesidades y que tenga un valor actual o potencial en el mercado, tales como:Las aguas: superficiales y subterráneas;El suelo, subsuelo y las tierras por su capacidad de uso mayor: agrícolas, pecuarias, forestales y de protección;La diversidad biológica: como las especies de flora, de la fauna y de los microorganismos o protistos; los recursos genéticos, y los ecosistemas que dan soporte a la vida;Los recursos hidrocarburíferos, hidroenergéticos, eólicos, solares, geotérmicos y similares;La atmósfera y el espectro radioeléctrico;Los minerales;Los demás considerados como tales.
El impacto del hombre sobre el medio ambiente crece cada vez más, alterando los sistemas ecológicos, poniendo en peligro la supervivencia de plantas, animales y al hombre mismo. Para evitar esto, se debe poner especial cuidado en realizar un aprovechamiento sostenible o racional del recurso, evitando su agotamiento y procurando conservar el MEDIO AMBIENTE Y EL EQUILIBRIO DE LA NATURALEZA, pues de ella dependen nuestra propia supervivencia y la existencia misma de la vida sobre nuestro planeta.
GEOGRAFIA
Definición de geografía de Emmanuel D´Martone y otros
Como hemos visto, la geografía estudia hechos y fenómenos geográficos. Los primeros son todos aquellos que se realizan en la superficie terrestre y se caracterizan por su lentitud, permanencia y estabilidad; como ejemplos podemos citar, entre otros, la existencia de los volcanes, océanos, valles, ríos, islas, sistemas montañosos, continentes, etcétera. Los segundos se refieren a los cambios bruscos y transitorios que se producen en la superficie de la Tierra; por ejemplo, las erupciones volcánicas, el paso de los huracanes, los sismos, las inundaciones y otros donde se observa la falta de estabilidad y permanencia.
La idea central del concepto de geografía, expresada con anterioridad, es del geógrafo francés Emmanuel D´Martone, padre de la geografía moderna; de ella se desprenden los cuatro grandes principios básicos de esta ciencia.
Principios metodológicos de la geografía
Causalidad: investiga las causas que producen un fenómeno geográfico determinado; por ejemplo, como se origina una montaña.
Distribución o extensión: localiza las regiones de la tierra donde se representan los hechos o se producen los fenómenos geográficos, es decir, la magnitud en el tiempo y en el espacio (duración y alcance).
Relación: busca la coordinación que existe entre los fenómenos y hechos físicos, biológicos y sociales que se producen en un lugar determinado y los fenómenos similares que se efectúan en otros sitos de la Tierra; por ejemplo estudia la relación que existe entre un hecho geográfico (una montaña) y su influencia en la fauna, la flora, los grupos humanos, la hidrología, los materiales del suelo etcétera.
Evolución: estudia la transformación que sufren hechos y fenómenos geográficos; por ejemplo, como esa formación montañosa cambia y mediante la acción de que factores o agentes internos y externos
Según la Legislación peruana, se entiende por Recursos Naturales todo componente de la naturaleza, susceptible de ser aprovechado por el ser humano para la satisfacción de sus necesidades y que tenga un valor actual o potencial en el mercado, tales como:Las aguas: superficiales y subterráneas;El suelo, subsuelo y las tierras por su capacidad de uso mayor: agrícolas, pecuarias, forestales y de protección;La diversidad biológica: como las especies de flora, de la fauna y de los microorganismos o protistos; los recursos genéticos, y los ecosistemas que dan soporte a la vida;Los recursos hidrocarburíferos, hidroenergéticos, eólicos, solares, geotérmicos y similares;La atmósfera y el espectro radioeléctrico;Los minerales;Los demás considerados como tales.
El impacto del hombre sobre el medio ambiente crece cada vez más, alterando los sistemas ecológicos, poniendo en peligro la supervivencia de plantas, animales y al hombre mismo. Para evitar esto, se debe poner especial cuidado en realizar un aprovechamiento sostenible o racional del recurso, evitando su agotamiento y procurando conservar el MEDIO AMBIENTE Y EL EQUILIBRIO DE LA NATURALEZA, pues de ella dependen nuestra propia supervivencia y la existencia misma de la vida sobre nuestro planeta.
GEOGRAFIA
Definición de geografía de Emmanuel D´Martone y otros
Como hemos visto, la geografía estudia hechos y fenómenos geográficos. Los primeros son todos aquellos que se realizan en la superficie terrestre y se caracterizan por su lentitud, permanencia y estabilidad; como ejemplos podemos citar, entre otros, la existencia de los volcanes, océanos, valles, ríos, islas, sistemas montañosos, continentes, etcétera. Los segundos se refieren a los cambios bruscos y transitorios que se producen en la superficie de la Tierra; por ejemplo, las erupciones volcánicas, el paso de los huracanes, los sismos, las inundaciones y otros donde se observa la falta de estabilidad y permanencia.
La idea central del concepto de geografía, expresada con anterioridad, es del geógrafo francés Emmanuel D´Martone, padre de la geografía moderna; de ella se desprenden los cuatro grandes principios básicos de esta ciencia.
Principios metodológicos de la geografía
Causalidad: investiga las causas que producen un fenómeno geográfico determinado; por ejemplo, como se origina una montaña.
Distribución o extensión: localiza las regiones de la tierra donde se representan los hechos o se producen los fenómenos geográficos, es decir, la magnitud en el tiempo y en el espacio (duración y alcance).
Relación: busca la coordinación que existe entre los fenómenos y hechos físicos, biológicos y sociales que se producen en un lugar determinado y los fenómenos similares que se efectúan en otros sitos de la Tierra; por ejemplo estudia la relación que existe entre un hecho geográfico (una montaña) y su influencia en la fauna, la flora, los grupos humanos, la hidrología, los materiales del suelo etcétera.
Evolución: estudia la transformación que sufren hechos y fenómenos geográficos; por ejemplo, como esa formación montañosa cambia y mediante la acción de que factores o agentes internos y externos
SISTEMAS OPERTATIVOS LINUX /1ra UNIDAD
Fedora Core
Fedora Core (también conocida como Fedora Linux) es una distribución Linux desarrollada por la comunidad Fedora y promovida por la compañía estadounidense Red Hat. El objetivo del proyecto Fedora es conseguir un sistema operativo de propósito general y basado exclusivamente en software libre con el apoyo de la comunidad Linux. Los ingenieros de Red Hat continúan participando en la construcción y desarrollo de este proyecto e invitan y fomentan la participación de miembros de la comunidad Linux. Originalmente, Red Hat Linux fue desarrollado exclusivamente dentro de Red Hat, con la sola realimentación de informes de usuarios que recuperaban fallos y contribuciones a los paquetes de software incluidos; y no contribuciones a la distribución como tal. Esto cambió el 22 de septiembre de 2003, cuando Red Hat Linux se derivó dando origen al Proyecto Fedora que está orientado a la comunidad de usuarios y así mismo, sirve de base para que Red Hat Enterprise Linux se desarrolle con más efectividad y adopte las nuevas características que se añaden en el Proyecto Fedora. Este modelo es similar a la relación entre Netscape Communicator y Mozilla, o entre StarOffice y OpenOffice.org, aunque en este caso, el producto comercial resultante es software libre. Repositorios Se llama Core porque incluye solo las partes más básicas del sistema operativo. Para incluir nuevo software, hay que usar los llamados Repositorios. Actualmente hay dos familias de repositorios incompatibles entre si: Livna RPMForge: FreshRPM, Dag, NewRpms y Dries En Livna están aquellos paquetes que, aunque legales, solo pueden ser descargados por el usuario final, como códecs para MP3 y otros formatos. La segunda familia no tiene los paquetes clasificados por licencias sino por funcionalidad. Los paquetes de ATrpms pueden causar problemas de incompatibilidad pero se engloban en la familia de RPMForge. Actualmente ambas familias son incompatibles entre ellas y se culpan mutuamente de la incompatibilidad. La herramienta habitual en Fedora para usar los repositorios es la aplicación en línea de comandos Yum, aunque hay un entorno gráfico para ella llamado Yumex.
Historial de Versiones
5 de noviembre de 2003: Core 1 (Yarrow).
19 de mayo de 2004: Core 2 (Tettnang)
8 de noviembre de 2004: Core 3 (Heidelberg)
13 de junio de 2005: Core 4 (Stentz)
20 de marzo de 2006: Core 5 (Bordeaux)
24 de octubre de 2006: Core 6 (Zod)
SISTEMA OPERATIVO GNU/Linux
GNU/Linux
UNIX es un sistema operativo no libre muy popular, porque está basado en una arquitectura que ha demostrado ser técnicamente estable. El sistema GNU fue diseñado para ser totalmente compatible con UNIX. El hecho de ser compatible con la arquitectura de UNIX implica que GNU esté compuesto de pequeñas piezas individuales de software, muchas de las cuales ya estaban disponibles, como el sistema de edición de textos TeX y el sistema gráfico X Window, que pudieron ser adaptados y reutilizados; otros en cambio tuvieron que ser reescritos. Para asegurar que el software GNU permaneciera libre para que todos los usuarios pudieran "ejecutarlo, copiarlo, modificarlo y distribuirlo", el proyecto debía ser liberado bajo una licencia diseñada para garantizar esos derechos al tiempo que evitase restricciones posteriores de los mismos. La idea se conoce en Inglés como copyleft -'izquierdo de copia'- (en clara oposición a copyright -'derecho de copia'-), y está contenida en la Licencia General Pública de GNU (GPL).
Richard Stallman
En 1985, Stallman creó la Free Software Foundation (FSF o Fundación para el Software Libre) para proveer soportes logísticos, legales y financieros al proyecto GNU. La FSF también contrató programadores para contribuir a GNU, aunque una porción sustancial del desarrollo fue (y continua siendo) producida por voluntarios. A medida que GNU ganaba renombre, negocios interesados comenzaron a contribuir al desarrollo o comercialización de productos GNU y el correspondiente soporte técnico. El más prominente y exitoso de ellos fue Cygnus Solutions, ahora parte de Red Hat.
En 1990, el sistema GNU ya tenía un editor de texto llamado Emacs, un exitoso compilador (GCC), y la mayor parte de las bibliotecas y utilidades que componen un sistema operativo UNIX típico. Pero faltaba un componente clave llamado núcleo (kernel en inglés).
En el manifiesto GNU, Stallman mencionó que "un núcleo inicial existe, pero se necesitan muchos otros programas para emular Unix". Él se refería a TRIX, que es un núcleo de llamadas remotas a procedimientos, desarrollado por el MIT y cuyos autores decidieron que fuera libremente distribuido; Trix era totalmente compatible con UNIX versión 7. En Diciembre de 1986 ya se había trabajado para modificar este núcleo. Sin embargo, los programadores decidieron que no era inicialmente utilizable, debido a que solamente funcionaba en "algunos equipos sumamente complicados y caros" razón por la cual debería ser portado a otras arquitecturas antes de que se pudiera utilizar. Finalmente, en 1988, se decidió utilizar como base el núcleo Mach desarrollado en la CMU. Inicialmente, el núcleo recibió el nombre de Alix (así se llamaba una novia de Stallman), pero por decisión del programador Michael Bushnell fue renombrado a Hurd. Desafortunadamente, debido a razones técnicas y conflictos personales entre los programadores originales, el desarrollo de Hurd acabó estancándose.
En 1991, Linus Torvalds empezó a escribir el núcleo Linux y decidió distribuirlo bajo la GPL. Rápidamente, múltiples programadores se unieron a Linus en el desarrollo, colaborando a través de Internet y consiguiendo paulatinamente que Linux llegase a ser un núcleo compatible con UNIX. En 1992, el núcleo Linux fue combinado con el sistema GNU, resultando en un sistema operativo libre y completamente funcional. El sistema operativo formado por esta combinación es usualmente conocido como "GNU/Linux" o como una "distribución Linux" y existen diversas variantes. (Ver también: Controversia por la denominación GNU/Linux)
En la actualidad (2006), Hurd continúa en activo desarrollo y ya es posible obtener versiones experimentales del sistema GNU que lo emplean como núcleo.
También es frecuente hallar componentes de GNU instalados en un sistema UNIX no libre, en lugar de los programas originales para UNIX. Esto se debe a que muchos de los programas escritos por el proyecto GNU han demostrado ser de mayor calidad que sus versiones equivalentes de UNIX. A menudo, estos componentes se conocen colectivamente como "herramientas GNU". Muchos de los programas GNU han sido también portados a otras plataformas como Microsoft Windows y Mac OS X.
En 1985, Stallman creó la Free Software Foundation (FSF o Fundación para el Software Libre) para proveer soportes logísticos, legales y financieros al proyecto GNU. La FSF también contrató programadores para contribuir a GNU, aunque una porción sustancial del desarrollo fue (y continua siendo) producida por voluntarios. A medida que GNU ganaba renombre, negocios interesados comenzaron a contribuir al desarrollo o comercialización de productos GNU y el correspondiente soporte técnico. El más prominente y exitoso de ellos fue Cygnus Solutions, ahora parte de Red Hat.
En 1990, el sistema GNU ya tenía un editor de texto llamado Emacs, un exitoso compilador (GCC), y la mayor parte de las bibliotecas y utilidades que componen un sistema operativo UNIX típico. Pero faltaba un componente clave llamado núcleo (kernel en inglés).
En el manifiesto GNU, Stallman mencionó que "un núcleo inicial existe, pero se necesitan muchos otros programas para emular Unix". Él se refería a TRIX, que es un núcleo de llamadas remotas a procedimientos, desarrollado por el MIT y cuyos autores decidieron que fuera libremente distribuido; Trix era totalmente compatible con UNIX versión 7. En Diciembre de 1986 ya se había trabajado para modificar este núcleo. Sin embargo, los programadores decidieron que no era inicialmente utilizable, debido a que solamente funcionaba en "algunos equipos sumamente complicados y caros" razón por la cual debería ser portado a otras arquitecturas antes de que se pudiera utilizar. Finalmente, en 1988, se decidió utilizar como base el núcleo Mach desarrollado en la CMU. Inicialmente, el núcleo recibió el nombre de Alix (así se llamaba una novia de Stallman), pero por decisión del programador Michael Bushnell fue renombrado a Hurd. Desafortunadamente, debido a razones técnicas y conflictos personales entre los programadores originales, el desarrollo de Hurd acabó estancándose.
En 1991, Linus Torvalds empezó a escribir el núcleo Linux y decidió distribuirlo bajo la GPL. Rápidamente, múltiples programadores se unieron a Linus en el desarrollo, colaborando a través de Internet y consiguiendo paulatinamente que Linux llegase a ser un núcleo compatible con UNIX. En 1992, el núcleo Linux fue combinado con el sistema GNU, resultando en un sistema operativo libre y completamente funcional. El sistema operativo formado por esta combinación es usualmente conocido como "GNU/Linux" o como una "distribución Linux" y existen diversas variantes. (Ver también: Controversia por la denominación GNU/Linux)
En la actualidad (2006), Hurd continúa en activo desarrollo y ya es posible obtener versiones experimentales del sistema GNU que lo emplean como núcleo.
También es frecuente hallar componentes de GNU instalados en un sistema UNIX no libre, en lugar de los programas originales para UNIX. Esto se debe a que muchos de los programas escritos por el proyecto GNU han demostrado ser de mayor calidad que sus versiones equivalentes de UNIX. A menudo, estos componentes se conocen colectivamente como "herramientas GNU". Muchos de los programas GNU han sido también portados a otras plataformas como Microsoft Windows y Mac OS X.
MI LUGAR FAVORITO
El Glaciar del Ampay, que se extiende entre los 5,000 y 5,235 msnm. es uno de los atractivos más importantes; el glaciar de nieves perpetuas, dominado por su espectacular estructura rocosa, presenta caprichosas formaciones naturales y cavernas con estalactitas que brindan un impresionante paisaje nival. En la parte posterior del glaciar, en las lenguas de nieve se practica el andinismo. El macizo del Ampay se formó con el levantamiento de los Andes en el cuaternario.
El bosque de Intimpas (Podocarpus glomeratus Don), la más impresionante y única formación de bosque húmedo se encuentra entre los 2,800 y 3,800 msnm. del Santuario Nacional del Ampay, la biotemperatura media anual es de 12,4ºC con precipitaciones anuales de 1,119 mm. El bosque ocupa una extensión de 597,88 hás. y está dominado por la vegetación arbustiva y arbórea donde destaca la Intimpa o "Arbol del Sol" que es la especie de mayor importancia y está en proceso de extinción.
El bosque de Intimpas (Podocarpus glomeratus Don), la más impresionante y única formación de bosque húmedo se encuentra entre los 2,800 y 3,800 msnm. del Santuario Nacional del Ampay, la biotemperatura media anual es de 12,4ºC con precipitaciones anuales de 1,119 mm. El bosque ocupa una extensión de 597,88 hás. y está dominado por la vegetación arbustiva y arbórea donde destaca la Intimpa o "Arbol del Sol" que es la especie de mayor importancia y está en proceso de extinción.
Las lagunas del santuario constituyen uno de los atractivos de gran interés, entre las principales se cuenta a la laguna de Angasccocha (3,200 msnm.) en pleno bosque de intimpas y una gran variedad de flora y fauna silvestre; la laguna de Uspaccocha (3,750 msnm.) la forma de la laguna y la deposición del material hace referencia a la última glaciación del nevado Ampay; las lagunas de Tornoccocha, Huillcaccocha y Chaquiccocha constituyen también atractivos de excelente factura por su cercanía al glaciar. El bosque de piedras, Formación geológica de rocas volcánicas del paleozoico superior e inferior y depósitos sueltos del cuaternario, donde se pueden observar fósiles marinos como los braquiópodos, corales, fusilinas y vegetales fosilizados como helechos, cortezas de arboles y algas marinas incrustadas en las rocas. Sobre la laguna de Angasccocha y al finalizar el bosque de intimpas se encuentra la gran Caverna del Ampay, que data de tiempos precolombinos y presenta 5 pisos subterráneos, en el último de estos se aprecia un gran salón; en el lugar fueron hallados restos cerámicos y osamentas de antiguos peruanos. En el sector denominado Karkatera se pueden apreciar también tumbas precolombinas.
musica favorita
Bueno muy poco de escuchar musica, pero cuando lo hago ps por supuesto que tengos mis preferencias, a continuacion les mencionare algunos de los grupos que escucho o mejor aun los invito a escucharlos, animense esta en mi enlace de intereses.
Guns N' Roses es una banda de hard rock que nació en Los Ángeles, en marzo de 1985. El grupo estaba formado por el cantante Axl Rose, los guitarristas Tracii Guns e Izzy Stradlin, el bajista Ole Beich, y el baterista Rob Gardner. El nombre deriva de la combinación de dos bandas muy importantes en Hollywood, los L.A Guns y los Hollywood Rose. Su primer concierto tuvo fecha el 26 de marzo de 1985 en el Troubador (Hollywood, California).
Hollywood Rose fue la banda creada por Jeffrey Isabell (Izzy Stradlin) y William Rose (Axl Rose) después de dejar Lafayette, Indiana y establecerse en Los Angeles. Posteriormente se transformaría en una de las bandas más importantes de hard rock de finales de los ochenta e inicios de los noventa: Guns N' Roses.
Trás su formación en 1985 debutaron como banda en el Troubadour Club -foto-, realizando su primera gira llamada The Hell Tour por clubs de Seattle, Portland, Eugene, Sacramento y San Francisco. Dicha gira no llegaron a finalizarla debido a una avería en la furgoneta en la que viajaban que les obligó a regresar a Los Angeles. Siguieron haciendo actuaciones esporádicas en locales de Hollywood consiguiendo una cierta reputación. Todos vivían y ensayaban en la misma habitacion.
Los sellos discográficos se empezaron a interesar por ellos. Su primer manager oficial fue Vicky Halmilton, la cual les alojó en su apartamento y les consiguió actuaciones y dinero para un equipo decente. Hubo problemas ya que Vicky les exigía mucho más dinero de lo que habían acordado cuando ella invirtió en el grupo, así que prescindieron de ella. Un año más tarde puso un pleito a la banda reclamando un millón de dólares.
Guns N' Roses es una banda de hard rock que nació en Los Ángeles, en marzo de 1985. El grupo estaba formado por el cantante Axl Rose, los guitarristas Tracii Guns e Izzy Stradlin, el bajista Ole Beich, y el baterista Rob Gardner. El nombre deriva de la combinación de dos bandas muy importantes en Hollywood, los L.A Guns y los Hollywood Rose. Su primer concierto tuvo fecha el 26 de marzo de 1985 en el Troubador (Hollywood, California).
Hollywood Rose fue la banda creada por Jeffrey Isabell (Izzy Stradlin) y William Rose (Axl Rose) después de dejar Lafayette, Indiana y establecerse en Los Angeles. Posteriormente se transformaría en una de las bandas más importantes de hard rock de finales de los ochenta e inicios de los noventa: Guns N' Roses.
Trás su formación en 1985 debutaron como banda en el Troubadour Club -foto-, realizando su primera gira llamada The Hell Tour por clubs de Seattle, Portland, Eugene, Sacramento y San Francisco. Dicha gira no llegaron a finalizarla debido a una avería en la furgoneta en la que viajaban que les obligó a regresar a Los Angeles. Siguieron haciendo actuaciones esporádicas en locales de Hollywood consiguiendo una cierta reputación. Todos vivían y ensayaban en la misma habitacion.
Los sellos discográficos se empezaron a interesar por ellos. Su primer manager oficial fue Vicky Halmilton, la cual les alojó en su apartamento y les consiguió actuaciones y dinero para un equipo decente. Hubo problemas ya que Vicky les exigía mucho más dinero de lo que habían acordado cuando ella invirtió en el grupo, así que prescindieron de ella. Un año más tarde puso un pleito a la banda reclamando un millón de dólares.
deperte favorito
El deporte que mas practico y no por eso favorito debe ser el fronton. Es un estilo similar al tenis
El tenis es un deporte de pelota y raqueta disputado entre dos jugadores (individuales) o cuatro (dobles). Es conocido dentro del mundo deportivo como el "deporte blanco", debido a que antes los jugadores se vestían enteramente de ese color. De hecho, esta costumbre se sigue manteniendo hasta ahora, en el Grand Slam de Wimbledon.
Los tenistas golpean la pelota alternadamente con una raqueta, haciéndola pasar por encima de una red que divide el campo de juego en dos mitades, de forma que ésta caiga en el campo del rival. La pelota no debe botar más de una vez. Si un jugador no consigue ambas cosas con su golpe, su adversario gana el punto. Al mismo tiempo, hay que intentar que el adversario no pueda devolver adecuadamente la pelota a la mitad del campo correspondiente a su rival. Vence el que obtiene mayor puntuación. Los partidos se juegan en pistas (canchas) que pueden ser techadas o al aire libre y de distintas superficies.
El tenis moderno nació en Gran Bretaña en el siglo XIX. Es un deporte popular que practican personas de edades y niveles diversos. El tenis profesional, sin embargo, requiere una gran fuerza y rapidez de reflejos: se han llegado a medir velocidades de servicio que han alcanzado los 250 km/h (Andy Roddick, Copa Davis 2006). Fue deporte olímpico entre 1896 y 1924, dejando de ser deporte oficial hasta su regreso en 1988 (J.O. de Seúl).
ACTIVIDAD Q REALIZO A DIARIO
Bueno diario voy a los videojuegos y solo me dedico a jugar THE KING OF FIGHTER
The King of Fighters (Za Kingu obu Faitāzu, abreviado KOF) es una saga de videojuegos de lucha inicialmente para el sistema Neo Geo desarrollada por la compañía SNK (hoy SNK-Playmore). Actualmente, los derechos de marca registrada pertenecen a las empresas Eolith y SNK-Playmore.
El videojuego debutó en 1994, combinando elementos de dos de los videojuegos de lucha existente en ese momento (Fatal Fury y Art of Fighting) y presentando nuevamente a personajes de juegos anteriores de Neo Geo (como Ikari Warriors y Psycho Soldier]]. Siendo la única franquicia de videojuegos de lucha, The King of Fighters lanzó una secuela cada año y nombró al juego por su año de lanzamiento.
La mecánica del juego ha ido variando ligeramente de versión en versión, salvo un elemento que permanece inalterable: el enfrentamiento entre dos equipos de tres luchadores, aunque en KOF 2001 se permitía variar este número hasta 4 peleadores.
Juegos de The King of Fighters
Los juegos se dividen en 3 sagas hasta ahora, siendo la tercera la que actualmente está en desarrollo. Los juegos KOF '98 y KOF 2002 reúnen a los mejores peleadores de la saga que representan, muchos de ellos muertos en ediciones anteriores de KOF (por ejemplo The Orochi Team).
El caso de la serie KOF Kyo rompe completamente con el esquema de KOF, siendo una mezcla de RPG y peleas, con un estilo anime muy remarcado y de calidad sobresaliente. Debido a que en su fecha de lanzamiento los juegos tipo RPG, como KOF, no eran muy populares en Estados Unidos, la versión del videojuego nunca salió de Japón, por tanto nunca se produjo una versión traducida en inglés. Kof Kyo narra detalladamente los hechos previos a KOF '97 y el desarrollo del torneo KOF '97.
El sistema se basa de la siguiente manera: El 1º personaje que se controla es Kyo, el cual lo debemos guiar por etapas del juego, como ayudar a otros personajes, o luchar contra Iori Yagami. Al hacerle favores a los personajes, ellos se irán transformando en amigos, y podrás "pedirles ayuda" en una batalla. Como ejemplo: Kyo ayuda a Mai Shiranui y a Athena Asamiya, ellas se transforman en sus amigas, (se desbloquean) por lo que en el torneo, Kyo puede pedirles ayuda, y armar equipo con ellas, pero Kyo siempre es miembro obligado de los equipos, además es el único que sube de distintos niveles, como: poder, velocidad, resistencia o fuerza.
Primeras versiones
The King Of Fighters '94 (Episodio 1)
Fue la versión original de KOF y el primer título de la saga, pero también el primer Dream Match, puesto que reúne a todos los personajes más famosos de los juegos de SNK en aquel entonces, más personajes originales. Los jugadores seleccionaban entre equipos de peleadores previamente formados, los cuales representaban a un país diferente.
En esta edición, el personaje final, o jefe, es Rugal Bernstein, organizador del evento. The King of Fighters '94 fue relanzado en el 2004 para Xbox, con fondos en 3D y gráficos en alta resolución como parte del festejo del décimo aniversario de KOF, llevando el título de The King of Fighters '94: Re-Bout
Saga de Yamata-no-Orochi
La saga de Orochi está compuesta por las versiones que van desde 1995 a 1997. Las ediciones 1994 y 1995 también pueden clasificarse en la llamada saga de Rugal.
The King Of Fighters '95 (Episodio 2)
Permitía editar los equipos de peleadores por primera vez, además de proponer una historia para el juego. En esta edición se establece la rivalidad entre personajes, resultando la más importante la de Kyo Kusanagi y Iori Yagami. Después de la derrota de Rugal en KOF '94, una nueva invitación es enviada para los equipos que participaron en el torneo pasado. El organizador del evento es el personaje Omega Rugal, que es la versión mejorada biónicamente de Rugal, puesto que fue reconstruido su cuerpo después de la derrota pasada. En esta edición, un nuevo equipo se presenta, el Rival team (conformado por los personajes Iori Yagami, Eiji Kisaragi y Billy Kane. Quienes recibían dicho nombre, ya que cada uno entró al torneo con el fin de venganza, el 1º, en contra de Kyo Kusanagi, El segundo, contra el Art of Fighting team, y el tercero, contra el equipo de Terry Bogard.
En ciertas ocasiones, los escenarios donde se desarrollan las peleas del videojuego son lugares que realmente existen. En KOF '95, existe un escenario que es frente a NeoGeo Land, lugar con muchos videojuegos (Arcade) y usado por SNK para hacer pruebas beta de sus nuevos juegos, incluso, es usada en la película Fatal Fury: The Motion Picture.
El juego fue lanzado para Neo-Geo CD en 1995, PlayStation y Sega Saturn en 1996, Gameboy en 1997 y será lanzado como parte de una recopilación para PlayStation 2 de la Saga Orochi en el 2006.
The King Of Fighters '96 (Episodio 3)
Un cambio importante en esta edición fue el que, según la historia detrás de cada equipo, los personajes cambiaron de equipo o tienen integrantes nuevos, algunos originales y algunos de otros juegos de SNK. Entre los principales cambios se encuentra la salida de Heidern y la entrada de Leona, el cambio de Yuri Sakazaki al Art of Fighing Team y la salida de Takuma, la entrada de Kasumi Todoh sustituyendo a Yuri en el ahora New Women Fighters Team, la sustitución de Eiji y Billy por Mature y Vice, y la aparición de un nuevo equipo, el Boss Team, formado por los jefes finales de los juegos de SNK: Geese Howard (de la serie de Fatal Fury), Wolfgang Krauser (de la serie de Fatal Fury Real Bout) y Mr. Big (de AOF).
Fue la primer versión en presentar un entorno gráfico distinto, con gráficas y sonidos mejorados con respecto a las versiones anteriores. Al igual que The King Of Fighters '96, también fue lanzado en Nintendo Game Boy.
The King Of Fighters '97(Episodio 4)
Se convirtió en el juego principal de la Saga Orochi y el juego de batalla más largo de la serie KOF.
Este juego marca el final de la Saga de Orochi, concluyendo con una supuesta muerte de Kyo e Iori, los cuales juntan fuerzas para eliminar al jefe final.
El entorno gráfico era un poco mejor a la version del 96, sobre todo mejorando la velocidad del juego.
The King of Fighters 98 Dream Match Never Ends (Japón)/ The Slugfest
Fue uno de los llamados Dream Match. Se constituía de una edición separada de la línea argumental en la que la que participan casi todos los personajes de la saga (incluso aquellos que habían fallecido en versiones anteriores).
Saga de NESTS
The King of Fighters 99: Millenium Battle
Se incorpora un sistema de strikers, pudiéndose elegir un cuarto luchador que únicamente es capaz de realizar un movimiento especial pulsando una combinación de botones. En esta entrega no era posible escoger a Kyo o a Iori, ellos no aparecen en la versión normal del juego. El nuevo protagonista de la saga es K', un muchacho normal con quien N.E.S.T.S hizo experimentos para darle los poderes de Kyo, quien se une al equipo japonés (Benimaru Nikaido y Shingo Yabuki) y su amigo Máxima para ganar el torneo. El jefe de esta versión es Krizalid, quien supuestamente es el hombre de quien K' es clon. Al final del juego la hermana de K', Muchiko (su nombre en el juego es Whip) y nueva compañera de Leona, Clark y Ralf, le revela a Krizalid que él no es el original, sino un clon de K'. Cerca del final aparecen Iori Yagami o Kyo Kusanagi y es obligatorio enfrentarlos y vencerlos para ver el final del juego. Se revela todo un sistema de la compañía N.E.S.T.S. para clonar a Kyo y conquistar el mundo. En este juego aparecen 2 clones de Kyo, los cuales son derrotados por el verdadero Kyo Kusanagi.
The King of Fighters 2000
Para KOF 2000, K' y Máxima se unieron a Whip para ganar el torneo. Aparece la guerrera "Anti-K'" creada por N.E.S.T.S. para matar a su hijo pródigo. A pesar de que Kula peleaba sola, su striker Candy la ayudaba. Se sacrifica para salvar a Kula
The King of Fighters 2001
Con nuevos integrantes (Foxy, K9999, Angel, Mai Lee) y el regreso de Heidern, permitía elegir a uno, dos, tres o hasta cuatro luchadores (en este último caso sin striker), alterando la fuerza y la resistencia de éstos para equilibrar el juego. K9999 era el último de los clones de Kyo (además de ser un homenaje al personaje Tetsuo de la película de animación japonesa Akira). De este torneo, destaca el equipo de N.E.S.T.S., formado por Foxy, tutora de Kula, la propia Kula, K9999 y Angel, una integrante de N.E.S.T.S. Todos ellos se revelaron contra N.E.S.T.S. y vencieron, pero Foxy perdió la vida en la batalla. El Boss de este juego era Igniz, líder de N.E.S.T.S., quien quería convertirse en un Dios. K' y su equipo lo derrotaron para siempre, dando fin a la saga.
Los juegos se dividen en 3 sagas hasta ahora, siendo la tercera la que actualmente está en desarrollo. Los juegos KOF '98 y KOF 2002 reúnen a los mejores peleadores de la saga que representan, muchos de ellos muertos en ediciones anteriores de KOF (por ejemplo The Orochi Team).
El caso de la serie KOF Kyo rompe completamente con el esquema de KOF, siendo una mezcla de RPG y peleas, con un estilo anime muy remarcado y de calidad sobresaliente. Debido a que en su fecha de lanzamiento los juegos tipo RPG, como KOF, no eran muy populares en Estados Unidos, la versión del videojuego nunca salió de Japón, por tanto nunca se produjo una versión traducida en inglés. Kof Kyo narra detalladamente los hechos previos a KOF '97 y el desarrollo del torneo KOF '97.
El sistema se basa de la siguiente manera: El 1º personaje que se controla es Kyo, el cual lo debemos guiar por etapas del juego, como ayudar a otros personajes, o luchar contra Iori Yagami. Al hacerle favores a los personajes, ellos se irán transformando en amigos, y podrás "pedirles ayuda" en una batalla. Como ejemplo: Kyo ayuda a Mai Shiranui y a Athena Asamiya, ellas se transforman en sus amigas, (se desbloquean) por lo que en el torneo, Kyo puede pedirles ayuda, y armar equipo con ellas, pero Kyo siempre es miembro obligado de los equipos, además es el único que sube de distintos niveles, como: poder, velocidad, resistencia o fuerza.
Primeras versiones
The King Of Fighters '94 (Episodio 1)
Fue la versión original de KOF y el primer título de la saga, pero también el primer Dream Match, puesto que reúne a todos los personajes más famosos de los juegos de SNK en aquel entonces, más personajes originales. Los jugadores seleccionaban entre equipos de peleadores previamente formados, los cuales representaban a un país diferente.
En esta edición, el personaje final, o jefe, es Rugal Bernstein, organizador del evento. The King of Fighters '94 fue relanzado en el 2004 para Xbox, con fondos en 3D y gráficos en alta resolución como parte del festejo del décimo aniversario de KOF, llevando el título de The King of Fighters '94: Re-Bout
Saga de Yamata-no-Orochi
La saga de Orochi está compuesta por las versiones que van desde 1995 a 1997. Las ediciones 1994 y 1995 también pueden clasificarse en la llamada saga de Rugal.
The King Of Fighters '95 (Episodio 2)
Permitía editar los equipos de peleadores por primera vez, además de proponer una historia para el juego. En esta edición se establece la rivalidad entre personajes, resultando la más importante la de Kyo Kusanagi y Iori Yagami. Después de la derrota de Rugal en KOF '94, una nueva invitación es enviada para los equipos que participaron en el torneo pasado. El organizador del evento es el personaje Omega Rugal, que es la versión mejorada biónicamente de Rugal, puesto que fue reconstruido su cuerpo después de la derrota pasada. En esta edición, un nuevo equipo se presenta, el Rival team (conformado por los personajes Iori Yagami, Eiji Kisaragi y Billy Kane. Quienes recibían dicho nombre, ya que cada uno entró al torneo con el fin de venganza, el 1º, en contra de Kyo Kusanagi, El segundo, contra el Art of Fighting team, y el tercero, contra el equipo de Terry Bogard.
En ciertas ocasiones, los escenarios donde se desarrollan las peleas del videojuego son lugares que realmente existen. En KOF '95, existe un escenario que es frente a NeoGeo Land, lugar con muchos videojuegos (Arcade) y usado por SNK para hacer pruebas beta de sus nuevos juegos, incluso, es usada en la película Fatal Fury: The Motion Picture.
El juego fue lanzado para Neo-Geo CD en 1995, PlayStation y Sega Saturn en 1996, Gameboy en 1997 y será lanzado como parte de una recopilación para PlayStation 2 de la Saga Orochi en el 2006.
The King Of Fighters '96 (Episodio 3)
Un cambio importante en esta edición fue el que, según la historia detrás de cada equipo, los personajes cambiaron de equipo o tienen integrantes nuevos, algunos originales y algunos de otros juegos de SNK. Entre los principales cambios se encuentra la salida de Heidern y la entrada de Leona, el cambio de Yuri Sakazaki al Art of Fighing Team y la salida de Takuma, la entrada de Kasumi Todoh sustituyendo a Yuri en el ahora New Women Fighters Team, la sustitución de Eiji y Billy por Mature y Vice, y la aparición de un nuevo equipo, el Boss Team, formado por los jefes finales de los juegos de SNK: Geese Howard (de la serie de Fatal Fury), Wolfgang Krauser (de la serie de Fatal Fury Real Bout) y Mr. Big (de AOF).
Fue la primer versión en presentar un entorno gráfico distinto, con gráficas y sonidos mejorados con respecto a las versiones anteriores. Al igual que The King Of Fighters '96, también fue lanzado en Nintendo Game Boy.
The King Of Fighters '97(Episodio 4)
Se convirtió en el juego principal de la Saga Orochi y el juego de batalla más largo de la serie KOF.
Este juego marca el final de la Saga de Orochi, concluyendo con una supuesta muerte de Kyo e Iori, los cuales juntan fuerzas para eliminar al jefe final.
El entorno gráfico era un poco mejor a la version del 96, sobre todo mejorando la velocidad del juego.
The King of Fighters 98 Dream Match Never Ends (Japón)/ The Slugfest
Fue uno de los llamados Dream Match. Se constituía de una edición separada de la línea argumental en la que la que participan casi todos los personajes de la saga (incluso aquellos que habían fallecido en versiones anteriores).
Saga de NESTS
The King of Fighters 99: Millenium Battle
Se incorpora un sistema de strikers, pudiéndose elegir un cuarto luchador que únicamente es capaz de realizar un movimiento especial pulsando una combinación de botones. En esta entrega no era posible escoger a Kyo o a Iori, ellos no aparecen en la versión normal del juego. El nuevo protagonista de la saga es K', un muchacho normal con quien N.E.S.T.S hizo experimentos para darle los poderes de Kyo, quien se une al equipo japonés (Benimaru Nikaido y Shingo Yabuki) y su amigo Máxima para ganar el torneo. El jefe de esta versión es Krizalid, quien supuestamente es el hombre de quien K' es clon. Al final del juego la hermana de K', Muchiko (su nombre en el juego es Whip) y nueva compañera de Leona, Clark y Ralf, le revela a Krizalid que él no es el original, sino un clon de K'. Cerca del final aparecen Iori Yagami o Kyo Kusanagi y es obligatorio enfrentarlos y vencerlos para ver el final del juego. Se revela todo un sistema de la compañía N.E.S.T.S. para clonar a Kyo y conquistar el mundo. En este juego aparecen 2 clones de Kyo, los cuales son derrotados por el verdadero Kyo Kusanagi.
The King of Fighters 2000
Para KOF 2000, K' y Máxima se unieron a Whip para ganar el torneo. Aparece la guerrera "Anti-K'" creada por N.E.S.T.S. para matar a su hijo pródigo. A pesar de que Kula peleaba sola, su striker Candy la ayudaba. Se sacrifica para salvar a Kula
The King of Fighters 2001
Con nuevos integrantes (Foxy, K9999, Angel, Mai Lee) y el regreso de Heidern, permitía elegir a uno, dos, tres o hasta cuatro luchadores (en este último caso sin striker), alterando la fuerza y la resistencia de éstos para equilibrar el juego. K9999 era el último de los clones de Kyo (además de ser un homenaje al personaje Tetsuo de la película de animación japonesa Akira). De este torneo, destaca el equipo de N.E.S.T.S., formado por Foxy, tutora de Kula, la propia Kula, K9999 y Angel, una integrante de N.E.S.T.S. Todos ellos se revelaron contra N.E.S.T.S. y vencieron, pero Foxy perdió la vida en la batalla. El Boss de este juego era Igniz, líder de N.E.S.T.S., quien quería convertirse en un Dios. K' y su equipo lo derrotaron para siempre, dando fin a la saga.
SISTEMAS OPERATIVOS PALMTOPS
En la actualidad existen dos familias de computadoras de mano: los basados en el sistema operativo Palm OS y los Pocket PC, que utilizan el sistema operativo Windows Mobile de Microsoft, siendo estos últimos más parecidos a una computadora personal en compatibilidad y capacidades. Dado que no se trata de una inversión pequeña, y dada la poca o nula capacidad de actualización de estos dispositivos, antes de que el futuro usuario decida por un modelo en concreto, hay que considerar algunas pautas importantes. A continuación 10 puntos que ayudarán a elegir el modelo adecuado a cada necesidad y sobre todo, al bolsillo. 1. ProcesadorLas computadoras de bolsillo suelen incluir procesadores de arquitectura diferente a los que se encuentran en las PC, ya que deben tener un consumo muy reducido y adecuarse a las características físicas de los PDA. Algunas aplicaciones específicas están diseñadas para usar un tipo concreto de procesador. Por eso, es preferible asegurar la compatibilidad de ambos. En todo caso, las aplicaciones suelen estar limitadas por el sistema operativo que utilice el dispositivo. 2. Software La funcionalidad de las PDA sólo está limitada por las aplicaciones que en ellas se instalen. Lo habitual es que las computadoras de esta clase incorporen de serie los programas más comunes: agenda de contactos, calendario, notas o gestor de correo electrónico, entre otros. Más adelante, el usuario puede agregar cualquier otro programa que compre o descargue (dado que hay una buena selección de software gratuito) y que resuelva cada necesidad específica.
3. Sistema operativoLos dos sistemas operativos más extendidos del mercado son Palm OS, de Palm, y Windows Mobile, de Microsoft. Existen otros pero, a no ser que se necesite algo en particular, la mejor opción sería quedarse con un dispositivo que funcione con uno de estos dos, porque son los que tienen a su disposición un mayor número de actualizaciones y programas.
Palm OS: este sistema operativo se encuentra en las computadoras comercializadas por Palm y Handspring, entre otros. Es muy sencillo de utilizar, lo que ha seducido a aquellos que no querían encontrar en su palmtop un entorno puramente informático.
Windows Mobile: la alternativa de Microsoft cuenta con una mayor difusión, y la variedad de aparatos basados en ella es más amplia. Como sucede con las computadoras de escritorio, este empresa licenció su sistema a un gran numero de fabricantes.
4. Conectividad Las PDA intercambian datos con el exterior a través de los puertos de comunicación. Existen dos tipos: por cable e inalámbrico. Los primeros pueden usar el puerto serie llamado RS-232C, que es tremendamente lento; o el puerto USB, que es el estándar para las computadoras de mano actuales.
Entre los inalámbricos, los infrarrojos son los más usados. Además hay otros sistemas sin las limitaciones de éste (falta de rango y necesidad de mantener una línea visual entre los dispositivos): las tecnologías Bluetooth y WiFi.
Actualmente, no es de extrañar que un mismo dispositivo incorpore dos o más sistemas simultáneamente. Algunos de ellos incluso pueden tenerlos todos, como el modelo HP iPAQ 5450.
5. MemoriaLa memoria de estas miniaturas es relativamente reducida. Algunos sólo tienen 2 o 4 MB, pero la mayoría ofrece 16, 32 o 64 MB. Los modelos más nuevos están equipados con hasta 256 MB, lo que aporta una gran comodidad a la hora de cargar varias aplicaciones, sobre todo las de multimedia (archivos MP3 o Internet).
Por otro lado, algunos dispositivos disponen de un espacio para que se pueda añadir tarjetas de memoria, aumentando así la capacidad del dispositivo. Existen varios modelos estándar:
Compact Flash: existen dos formatos que sólo se diferencian por su espesor: el tipo I (3,3 mm) y el tipo II (5 mm). La mayor parte de las máquinas sólo aceptan las tarjetas del tipo I, cuya capacidad varía de 2 a 192 Mb, aunque las tarjetas de más capacidad pueden almacenar varios GB.
Smart Media: esta tarjeta extra plana (0,76 mm) se utiliza muy poco en las palmtops, a pesar de sus reducidas dimensiones (34 x 45 mm). Su capacidad máxima alcanza los 8 GB.
MMC/SD: la más pequeña (24x32 mm y espesor de 1,4 mm). Se presenta en dos versiones: la Multimedia CARD y la Secure Digital CARD. Este última se diferencia por funciones internas destinadas a controlar la copia cuando contiene archivos de música comprimidos. Hoy, su capacidad llega ya a 1 GB.
Memory Stick: usadas únicamente por el Clié de Sony, pueden llegar a 2 GB de tamaño.
Handheld y Palmtops
La tecnología avanza a un paso que ni siquiera nos podemos imaginar. Para muestra, un botón: si la computadora que estás usando en este momento no la compraste entre hoy y ayer, entonces podría decirse que obsoleta. Y si la compraste hace algunos años, ya es casi prehistórica.
Entre las novedades para los usuarios de la más alta tecnología hay cada vez más y más opciones. Y de los nuevos juguetitos que más y más han llamado la atención se encuentran las llamadas Palmtops y Handheld. Pero para poder ser parte de los que más saben de tecnología y poder usar esta nueva tecnología, es necesario que sepamos qué es cada cosa. Es por eso que hoy vamos a describir qué es cada una de estas novedades.
La Handheld es una pequeñísima computadora, que debido a su reducido tamaño, la mayoría de las veces no tiene un disco duro rígido, por esto, almacena su información en su memoria RAM o en memorias intercambiables de tipo Flash RAM. Su funcionamiento se da gracias al uso de baterías.
Las Palmtops son computadoras de bolsillo de tamaño muy reducido. Estas computadoras toman su nombre pues, dado que son demasiado pequeñas, pueden llevarse en la palma de la mano. Las capacidades de estas computadoras son, evidentemente más pequeñas que las de escritorio. Las funciones principales de este tipo de computadoras son esencialmente relacionadas con la escritura y lectura de documentos además de la transmisión de archivos a la PC.
La diferencia entre ambas computadoras radica en que las Handheld son un poco más grandes que las Palmtops en cuanto al tamaño, además de ser más rápidas y tener un teclado integrado. La memoria de las Handheld es también mayor.
Bueno, para seguir siendo jóvenes tenemos que conocer todas las novedades que el mundo nos ofrece, y, dónde va a haber más novedades que en el mundo cibernético?
Estar perfectamente informado sin tener que cargar con un par de kilos de carga es posible. Por aproximadamente 20 veces menos de lo que pesa una notebook se puede contar con una handheld. Y como si esto fuera poco sólo hay que invertir un tercio, como mínimo, de lo que cuesta una laptop.
Claro que no todas son ventajas en las palmtops. Porque como contras se pueden mencionar que no tienen teclado (al menos en los modelos presentados en esta guía), la pantalla es muchísimo más pequeña y no tienen toda la potencia de un equipo grande.
A favor de las palmtops también se puede decir algo muy importante: la autonomía de la batería. Casi todos los equipos ofrece, como mínimo, alrededor de 7 horas de funcionamiento contínuo. Y, entre otras cosas, de eso se trata la portabilidad.
Hoy en día, y gracias al software que incluyen, las minicomputadoras de bolsillo incluyen herramientas que permiten llevar agendas de miles de contactos y citas, block de notas, reloj con alarma y recordatorios, organización de tareas y calendario, compatibilidad para leer y escribir archivos de Word, Excel y PowerPoint, ademeas de otros programas de productividad que se pueden comprar o descargar de la Web.
Y como no sólo se trata de trabajar, las palmtops también pueden cargar juegos, reproducir música digital, grabar voz, funcionar como un álbum de fotos y hasta tomar fotografías.
Si de conectividad se trata, todas disponen de conexión a computadoras de escritorio o notebooks a través de USB. También todas incluyen un puerto infrarrojo para intercambiar datos y archivos y jugar entre dos palmtops. Algunos modelos incorporan conectividad inaleambrica Bluetooth y los modelos de alta gama vienen con conexión a Internet inalámbrica de banda ancha WiFi. Igualmente, a los modelos que no cuentan con WiFi incorporado, se les puede agregar un tarjeta WiFi.
La disminución de precios de las notebooks es vista por algunos como una amenaza a las palmtops. Y si de la relación de precio y características se trata esto es muy cierto. Pero a la hora de comprar una handheld lo que se privilegia es la portabilidad, entendida como el producto entre dimensiones y peso combinado con la gran autonomía de la batería.
Los que cuenten con un presupuesto mayor que los mil pesos de los productos de esta guía podrán jugarse con una palmtop que además funcione como teléfono celular. Y esto sí que es una excelente convergencia, ya que en un sólo equipo se cuenta con dos dispositivos que se potencian funcionando en conjunto, ya sea por la transmisión de datos (de la palm a través del teléfono), como la centralización de agendas.
SISTEMA TOLERANTE A FALLOS
Sistema tolerante a fallos es un sistema capaz de continuar operando correctamente incluso en presencia de fallos en el hardware o errores en el software Cumputación tolerante a fallos describe el proceso de realizar cálculos, tal como los realizados por un computador, de una manera tolerante a fallos Orígenes de la computación tolerante a fallos Uso extensivo de técnicas de detección de errores y de tolerancia a fallos BRC (Bell Relay Computers) 2 CPUs, retry UNIVAC, Whirlwind I, paridad transferencias de datos EDVAC, 2 ALUs y comparación de resultados inicialmente, dominio exclusivo de la industria con notables excepciones Shannon y Hamming, Teoría de códigos Von Neuman, Redundancia
En los años 60, tratamiento sistemático en la industria
ESS (Electronic Switching System) 2 horas no operativo en 40 años
IBM/360
un computador triplicado ayudó al hombre a aterrizar en la luna
Desarrollo rápido a partir de 1970
surgen compañias especializadas en sistemas fiables (Tandem)
creación de un comité de tolerancia a fallos en el IEEE
difusión en revistas y congresos: Computer, IEEE micro, IEEE trans. on computers, proceedings del IEEE, Journal of
design automation and fault tolerant computing
Miniaturización de las dimensiones de los dispositivos electronicos (transistores y otros)
* nuevas oportunidades
menores tamaños, potencia y coste implican viabilidad de usar redundancia
* nuevos problemas: se aplica redundancia nivel de circuito
mayor susceptibilidad a perturbaciones externas
incremento errores de diseño
mayor probabilidad de circuitos defectuosos
Ampliación de aplicaciones (desde el punto de vista de los sistema de computación)
entornos más duros
usuarios más inexpertos
incremento de los costes de mantenimiento
sistemas cada vez más complejos
FIABILIDAD (RELIABILITY), R(T)
* probabilidad condicional de que el sistema trabaje correctamente en el intervalo [t0, t], supuesto
que el sistema estaba trabajando correctamente en el tiempo t0
* infiabilidad Q(t) de un sistema es la probabilidad condicional de que el sistema falle en el intervalo
[t0, t], supuesto que el sistema estaba trabajando correctamente en el tiempo t0
* sistemas en los que incluso periodos momentáneos de funcionamiento incorrecto son inaceptables
* sistemas sin posibilidad de reparación
DISPONIBILIDAD (AVAILABILITY), A(T)
* probabilidad de que un sistema este operando correctamente y disponible para realizar sus funciones
en el instante de tiempo t
* un sistema puede ser altamente disponible experimentando periodos frecuentes de inoperabilidad, en
tanto que la duración de cada periodo sea suficientemente corta
* sistemas en los que el objetivo primario sea ofrecer servicios tan a menudo como sea posible
SEGURIDAD, S(T)
* probabilidad de que un sistema realice correctamente su función o deje de operar de manera que
no interfiera con la operación de otros sistemas o comprometa la seguridad de las personas relacionas
con el sistema
MANTENIBILIDAD, M(T)
* probabilidad de que un sistema que ha fallado sea restaurado a un estado operativo dentro de un
periodo de tiempo t
* el proceso de restauración incluye la localización del problema, la reparación fÍsica del problema
y la vuelta a su estado operativo original
TESTABILIDAD
* facilidad con la que ciertos atributos de un sistema pueden ser testado
Confiabilidad (Dependability)
* relaciona los conceptos anteriores
* calidad de servicio proporcionada por un sistema
Distintos requerimientos segun las aplicaciones:
LARGA DURACIÓN
* vuelos espaciales no tripulados, satélites
* R(10 años) = 0.95
* permite periodos largos de inoperatividad
* STAR/ Voyager
CÁLCULOS CRÍTICOS
* sistemas de control de vuelo, militares, ciertos controladores
industriales
* Q(10 horas) = 10-9 R(3 horas) = 0.97
* August System CS3001 / A129 IMS
* mantenimiento programado
APLAZAMIENTO DEL MANTENIMIENTO
* sistemas en localizaciones remotas, telefonía
* las operaciones de mantenimiento son
extremadamente costosas
ALTA DISPONIBILIDAD
* sistemas transacciones, de reservas de
billetes
* alta probabilidad de recibir el servicio
cuando se requiere
* Tandem / Stratus
Fallo Latente: un fallo presente en el sistema y que todavía no ha producido un error
Latencia de fallo: tiempo entre la ocurrencia de un fallo y la aparición de un error debido a ese fallo
Latencia de error: tiempo entre la ocurrencia de un error y la aparición del malfuncionamiento
resultante
No todos los fallos producen errores
No todos los errores dan lugar a malfuncionamientos
Distintos estudios de Sistemas de Computación demuestran:
Los sistemas fallan por numerosas razones incluyendo fallo del hardware, diseño incorrecto
del hardware o del software, operación o mantenimiento inadecuado y entornos
inestables
La probabilidad de error se distribuye sobre este espectro sin una única causa dominante
Existen evidencias de que los fallos transitorios/intermitentes son más frecuentes
La tolerancia a fallos implica REDUNDANCIA recursos adicionales a los estrictamente necesarios
para la operación normal del sistema
La redundancia introducida incrementa el coste del sistema. Es importante elegir adecuadamente
el tipo de recurso adicional
Los computadores tolerantes a fallos aplican una combinación de distintos tipos de redundancia:
hardware, software, información y tiempo y en distintos niveles: nivel físico, nivel sistema
operativo, (nivel aplicación)
La asignatura se centra en el nivel físico
menores tamaños, potencia y coste implican viabilidad de usar redundancia
* nuevos problemas: se aplica redundancia nivel de circuito
mayor susceptibilidad a perturbaciones externas
incremento errores de diseño
mayor probabilidad de circuitos defectuosos
Ampliación de aplicaciones (desde el punto de vista de los sistema de computación)
entornos más duros
usuarios más inexpertos
incremento de los costes de mantenimiento
sistemas cada vez más complejos
FIABILIDAD (RELIABILITY), R(T)
* probabilidad condicional de que el sistema trabaje correctamente en el intervalo [t0, t], supuesto
que el sistema estaba trabajando correctamente en el tiempo t0
* infiabilidad Q(t) de un sistema es la probabilidad condicional de que el sistema falle en el intervalo
[t0, t], supuesto que el sistema estaba trabajando correctamente en el tiempo t0
* sistemas en los que incluso periodos momentáneos de funcionamiento incorrecto son inaceptables
* sistemas sin posibilidad de reparación
DISPONIBILIDAD (AVAILABILITY), A(T)
* probabilidad de que un sistema este operando correctamente y disponible para realizar sus funciones
en el instante de tiempo t
* un sistema puede ser altamente disponible experimentando periodos frecuentes de inoperabilidad, en
tanto que la duración de cada periodo sea suficientemente corta
* sistemas en los que el objetivo primario sea ofrecer servicios tan a menudo como sea posible
SEGURIDAD, S(T)
* probabilidad de que un sistema realice correctamente su función o deje de operar de manera que
no interfiera con la operación de otros sistemas o comprometa la seguridad de las personas relacionas
con el sistema
MANTENIBILIDAD, M(T)
* probabilidad de que un sistema que ha fallado sea restaurado a un estado operativo dentro de un
periodo de tiempo t
* el proceso de restauración incluye la localización del problema, la reparación fÍsica del problema
y la vuelta a su estado operativo original
TESTABILIDAD
* facilidad con la que ciertos atributos de un sistema pueden ser testado
Confiabilidad (Dependability)
* relaciona los conceptos anteriores
* calidad de servicio proporcionada por un sistema
Distintos requerimientos segun las aplicaciones:
LARGA DURACIÓN
* vuelos espaciales no tripulados, satélites
* R(10 años) = 0.95
* permite periodos largos de inoperatividad
* STAR/ Voyager
CÁLCULOS CRÍTICOS
* sistemas de control de vuelo, militares, ciertos controladores
industriales
* Q(10 horas) = 10-9 R(3 horas) = 0.97
* August System CS3001 / A129 IMS
* mantenimiento programado
APLAZAMIENTO DEL MANTENIMIENTO
* sistemas en localizaciones remotas, telefonía
* las operaciones de mantenimiento son
extremadamente costosas
ALTA DISPONIBILIDAD
* sistemas transacciones, de reservas de
billetes
* alta probabilidad de recibir el servicio
cuando se requiere
* Tandem / Stratus
Fallo Latente: un fallo presente en el sistema y que todavía no ha producido un error
Latencia de fallo: tiempo entre la ocurrencia de un fallo y la aparición de un error debido a ese fallo
Latencia de error: tiempo entre la ocurrencia de un error y la aparición del malfuncionamiento
resultante
No todos los fallos producen errores
No todos los errores dan lugar a malfuncionamientos
Distintos estudios de Sistemas de Computación demuestran:
Los sistemas fallan por numerosas razones incluyendo fallo del hardware, diseño incorrecto
del hardware o del software, operación o mantenimiento inadecuado y entornos
inestables
La probabilidad de error se distribuye sobre este espectro sin una única causa dominante
Existen evidencias de que los fallos transitorios/intermitentes son más frecuentes
La tolerancia a fallos implica REDUNDANCIA recursos adicionales a los estrictamente necesarios
para la operación normal del sistema
La redundancia introducida incrementa el coste del sistema. Es importante elegir adecuadamente
el tipo de recurso adicional
Los computadores tolerantes a fallos aplican una combinación de distintos tipos de redundancia:
hardware, software, información y tiempo y en distintos niveles: nivel físico, nivel sistema
operativo, (nivel aplicación)
La asignatura se centra en el nivel físico
SISTEMA OPERATIVO EN TIEMPO REAL
Los sistemas de tiempo real y el análisis de sus requerimientos.
Debido que los sistemas de tiempo real tienen características especiales diferentes a los demás tipos de sistemas y que los sistemas operativos de tiempo real relegan a sus usuarios el cumplimiento de estos requerimientos (según la característica de “usuarios controladores” vista en el capítulo anterior) es importante mencionar que este tipo de requerimientos deben de tomarse en cuenta en el proceso de desarrollo. Sin embargo, como estos requerimientos no forman parte de una sola funcionalidad del sistema sino que forman parte de todo el sistema a menudo se definen como “requerimientos no funcionales”. También se argumenta que como no son parte de la aplicación sino que es como se comporta una aplicación al introducirse en un ambiente de tiempo real entonces estos son una “Característica del sistema”, más que un requerimiento. Los dos puntos de vista son erróneos, si bien es cierto que los requerimientos referentes al tiempo real se aplican a todo el sistema, a menudo tenemos que agregar o modificar software, interfaces o hardware para que estos requerimientos se cumplan, mas aun, el software debe de estar preparado para que en la eventualidad de que un trabajo no cumpla con sus requerimientos de tiempo, cancele los demás trabajos relacionados con el (si una petición de entrada / salida toma más del tiempo establecido y se cancela por el sistema, el software de entrada / salida debe de informar al usuario del proceso que este evento ocurrió). Esto es claramente parte de la funcionalidad y de comportamiento del sistema. Por lo que clasificar esta restricción como requerimiento no funcional es incorrecto. Si argumentáramos que: al ser parte de todo el sistema son una característica del sistema más que un requerimiento estaríamos diciendo que estas restricciones se cumplen con el solo hecho de pertenecer al sistema. Una característica es algo que ya esta en el sistema y que no puede ser calificada como errónea o correcta, y una restricción deberá de ser cumplida siempre y la forma en que estas restricciones se cumplen puede ser validad como errónea o correcta. Por lo que estas restricciones tampoco son una característica del sistema. Filosofías de diseño Hay dos diseños básicos. Un sistema operativo guiado por eventos sólo cambia de tarea cuando un evento necesita el servicio. Un diseño de compartición de tiempo cambia de tareas por interrupciones del reloj y por eventos. http://JRSystemPCs.iespana.es El diseño de compartición de tiempo gasta más tiempo de la UCP en cambios de tarea innecesarios. Sin embargo, da una mejor ilusión de multitarea. Programación
Responsividad La Responsividad se enfoca en el tiempo que se tarda una tarea en ejecutarse una vez que la interrupción ha sido atendida. Los aspectos a los que se enfoca son: · La cantidad de tiempo que se lleva el iniciar la ejecución de una interrupción · La cantidad de tiempo que se necesita para realizar las tareas que pidió la interrupción. · Los Efectos de Interrupciones anidadas. Una vez que el resultado del cálculo de determinismo y Responsividad es obtenido. Se convierte en una característica del sistema y un requerimiento para las aplicaciones que correrán en el. (e. g. Si diseñamos una aplicación en un sistema en el cual el 95% de las tareas deben terminar en cierto periodo de tiempo entonces es recomendable asegurarse que las tareas ejecutadas de nuestra aplicación no caigan en el 5% de bajo desempeño) Usuarios controladores En estos sistemas, el usuario (i.e los procesos que corren en el sistema) tienen un control mucho más amplio del sistema. · El proceso es capaz de especificar su prioridad · El proceso es capaz de especificar el manejo de memoria que requiere (que parte estará en caché y que parte en memoria swap y que algoritmos de memoria swap usar) · El proceso especifica que derechos tiene sobre el sistema. Esto aunque parece anárquico no lo es, debido a que los sistemas de tiempo real usan TIPOS de procesos que ya incluyen estas características, y usualmente estos TIPOS de procesos son mencionados como requerimientos. Un ejemplo es el siguiente: “Los procesos de mantenimiento no deberán exceder el 3% de la capacidad del procesador, A MENOS de que en el momento que sean ejecutados el sistema se encuentre en la ventana de tiempo de menor uso”.
Confiabilidad
La confiabilidad en un sistema de tiempo real es otra característica clave. El sistema no debe de ser solamente libre de fallas pero más aun, la calidad del servicio que presta no debe de degradarse más allá de un límite determinado.
El sistema debe de seguir en funcionamiento a pesar de catástrofes, o fallas mecánicas. Usualmente una degradación en el servicio en un sistema de tiempo real lleva consecuencias catastróficas,
Operación a prueba de fallas duras (Fail soft operation)
El sistema debe de fallar de manera que: cuando ocurra una falla, el sistema preserve la mayor parte de los datos y capacidades del sistema en la máxima medida posible.
Que el sistema sea estable, I. E. Que si para el sistema es imposible cumplir con todas las tareas sin exceder sus restricciones de tiempo, entonces el sistema cumplirá con las tareas más críticas y de más alta prioridad.
En los diseños típicos, una tarea tiene tres estados: ejecución, preparada y bloqueada. La mayoría de las tareas están bloqueadas casi todo el tiempo. Solamente se ejecuta una tarea por UCP. La lista de tareas preparadas suele ser corta, de dos o tres tareas como mucho.
El problema principal es diseñar el programador. Usualmente, la estructura de los datos de la lista de tareas preparadas en el programador está diseñada para que cada búsqueda, inserción y eliminación necesiten interrupciones de cierre solamente durante un periodo de tiempo muy pequeño, cuando se buscan partes de la lista muy definidas.
Esto significa que otras tareas pueden operar en la lista asincrónicamente, mientras que se busca. Una buena programación típica es una lista conectada bidireccional de tareas preparadas, ordenadas por orden de prioridad. Hay que tener en cuenta que no es rápido de buscar sino determinista. La mayoría de las listas de tareas preparadas sólo tienen dos o tres entradas, por lo que una búsqueda secuencial es usualmente la más rápida, porque requiere muy poco tiempo de instalación.
El tiempo de respuesta crítico es el tiempo que necesita para poner en la cola una nueva tarea preparada y restaurar el estado de la tarea de más alta prioridad.
En un sistema operativo en tiempo real bien diseñado, preparar una nueva tarea necesita de 3 a 20 instrucciones por cada entrada en la cola y la restauración de la tarea preparada de máxima prioridad de 5 a 30 instrucciones. En un procesador 68000 20MHz, los tiempos de cambio de tarea son de 20 microsegundos con dos tareas preparadas.
Cientos de UCP MIP ARM pueden cambiar en unos pocos de microsegundos..
Relación de las tareas entre sí
Las diferentes tareas de un sistema no pueden utilizar los mismos datos o componentes físicos al mismo tiempo. Hay dos diseños destacados para tratar este problema.
Uno de los diseños utiliza semáforos. En general, el semáforo puede estar cerrado o abierto. Cuando está cerrado hay una cola de tareas esperando la apertura del semáforo.
Los problemas con los diseños de semáforos son bien conocidos: inversión de prioridades y puntos muertos.
En la inversión de prioridades, una tarea de mucha prioridad espera porque otra tarea de baja prioridad tiene un semáforo. Si una tarea de prioridad intermedia impide la ejecución de la tarea de menor prioridad, la de más alta prioridad nunca llega a ejecutarse. Una solución típica sería tener a la tarea que tiene el semáforo ejecutada a la prioridad de la tarea que lleva más tiempo esperando.
En un punto muerto, dos tareas tienen dos semáforos pero en el orden inverso. Esto se resuelve normalmente mediante un diseño cuidadoso, realizando colas o quitando semáforos, que pasan el control de un semáforo a la tarea de más alta prioridad en determinadas condiciones.
La otra solución es que las tareas se manden mensajes entre ellas. Esto tiene los mismos problemas: La inversión de prioridades tiene lugar cuando una tarea está funcionando en un mensaje de baja prioridad, e ignora un mensaje de más alta prioridad en su correo. Los puntos muertos ocurren cuando dos tareas esperan a que la otra responda.
Aunque su comportamiento en tiempo real es menos claro que los sistemas de semáforos, los sistemas basados en mensajes normalmente se despegan y se comportan mejor que los sistemas de semáforo. http://jrsystempcs.iespana.es
Procesamiento de las interrupciones.
Las interrupciones son la forma más común de pasar información desde el mundo exterior al programa y son, por naturaleza, impredecibles. En un sistema de tiempo real estas interrupciones pueden informar diferentes eventos como la presencia de nueva información en un puerto de comunicaciones, de una nueva muestra de audio en un equipo de sonido o de un nuevo cuadro de imagen en una videograbadora digital.
Para que el programa cumpla con su cometido de ser tiempo real es necesario que el sistema atienda la interrupción y procese la información obtenida antes de que se presente la siguiente interrupción. Como el microprocesador normalmente solo puede atender una interrupción a la vez, es necesario que los controladores de tiempo real se ejecuten en el menor tiempo posible. Esto se logra no procesando la señal dentro de la interrupción, sino enviando un mensaje a una tarea o solucionando un semaforo que está siendo esperado por una tarea. El programador se encarga de activar la tarea y esta se encarga de adquirir la información y completar el procesamiento de la misma.
El tiempo que transcurre entre la generación de la interrupción y el momento en el cual esta es atendida se llama latencia de interrupción. El inverso de esta latencia es una frecuencia llamada frecuencia de saturación, si las señales que están siendo procesadas tienen una frecuencia mayor a la de saturación, el sistema será físicamente incapaz de procesarlas. En todo caso la mayor frecuencia que puede procesarse es mucho menor que la frecuencia de saturación y depende de las operaciones que deban realizarse sobre la información recibida.
Reparto de la memoria
Hay dos problemas con el reparto de la memoria en SOTR (sistemas operativos en tiempo real).
El primero, la velocidad del reparto es importante. Un esquema de reparto de memoria estándar recorre una lista conectada de longitud indeterminada para encontrar un bloque de memoria libre; sin embargo, esto no es aceptable ya que el reparto de la memoria debe ocurrir en un tiempo fijo en el SOTR.
En segundo lugar, la memoria puede fragmentarse cuando las regiones libres se pueden separar por regiones que están en uso. Esto puede provocar que se pare un programa, sin posibilidad de obtener memoria, aunque en teoría exista suficiente memoria. Una solución es tener una lista vinculada LIFO de bloques de memoria de tamaño fijo. Esto funciona asombrosamente bien en un sistema simple.
Suscribirse a:
Entradas (Atom)