Diseño De Software

                                                     
                                                     Historia
El contexto en el que se ha desarrollado el software está fuertemente ligado a la evolución de los sistemas informáticos. Un mejor rendimiento del hardware, una reducción del tamaño y un costo más bajo, han dado lugar a sistemas informáticos más sofisticados.


La evolución del software dentro del contexto de las áreas de aplicación de los sistemas basados en computadoras, puede verse de la siguiente manera :    

En los primeros años de desarrollo de las computadoras, el hardware sufrió continuos cambios, mientras que el software se contemplaba simplemente como un añadido. La programación de computadoras era un arte para el cual existían pocos métodos sistemáticos. El desarrollo de software se realizaba virtualmente sin ninguna planificación (hasta que los planes comenzaron a desfazarse y los costos a crecer). Durante este período se utilizaba en la mayoría de los sistemas una orientación por lotes. Algunas excepciones fueron sistemas interactivos (Sistema de reservas de América Airlines) y sistemas de tiempo real para la defensa (SAGE). No obstante esto, la mayor parte del hardware se dedicaba a la ejecución de un único programa que, a su vez, se dedicaba a una aplicación específica.
Lo normal era que el hardware fuera de propósito general. Por otra parte, el software se diseñaba a medida para cada aplicación y tenía una distribución relativamente pequeña. La mayoría del software se desarrollaba y era utilizado por la misma persona u organización. La misma persona lo escribía, lo ejecutaba y, si fallaba, lo depuraba.
Debido a este entorno personalizado del software, el diseño era un proceso implícito, realizado en la mente de alguien, y la documentación normalmente no existía.

La segunda era en la evolución de los sistemas de computadoras se extiende desde la mitad de la década de los 60 hasta finales de los setenta. La multiprogramación y los sistemas multiusuarios introdujeron nuevos conceptos de interacción hombre máquina. Las técnicas interactivas abrieron un nuevo mundo de aplicaciones y nuevos niveles de sofisticación del hardware y del software. Los sistemas de tiempo real podían recoger, analizar y transformar datos de múltiples fuentes, controlando así los procesos y produciendo salidas en milisegundos en lugar de en minutos. Los avances en los dispositivos de almacenamiento en línea condujeron a la primera generación de sistemas de gestión de bases de datos.
Otra característica fue el establecimiento del software como producto y la llegada de las “casas de software”.
Conforme crecía el número de sistemas, comenzaron a extenderse las bibliotecas de software de computadora. Se desarrollaban proyectos en los que se producían programas de decenas de miles de sentencias fuente. Todos esos programas (todas esas sentencias fuentes) tenían que ser corregidos cuando se detectaban fallos, modificados cuando cambiaban los requisitos de los usuarios o adaptados a nuevos dispositivos que se hubieran incorporado. Estas actividades se llamaron mantenimiento del software. El esfuerzo gastado en el mantenimiento comenzó a absorber recursos en una medida alarmante. Había comenzado una “crisis del software”.

La tercera era en la evolución de los sistemas de computadoras comenzó a mediado de los setenta y llega hasta el momento actual. El procesamiento distribuido (múltiples computadoras, cada una ejecutando funciones concurrentemente y comunicándose con alguna otra) incrementó notablemente la complejidad de los sistemas informáticos. Las redes de área local y de área global, las comunicaciones digitales de alto ancho de banda y la creciente demanda de acceso “instantáneo” a los datos, pusieron una fuerte presión sobre los desarrolladores del software.
En esta era se produce la llegada de los microprocesadores y las computadoras personales.
Las computadoras personales han sido el catalizador del gran crecimiento de muchas compañías de software. Estas compañías venden decenas y centenares de copias de sus productos de software.

La cuarta era de la Evolución software de computadora está comenzando ahora. Las tecnologías orientadas a objetos están comenzando a ser utilizadas en muchas áreas de aplicación. Las técnicas de cuarta generación para el desarrollo de software ya están cambiando la forma en que algunos segmentos de la comunidad informática construyen los programas. Los sistemas expertos y el software de inteligencia artificial se han trasladado del laboratorio a las aplicaciones prácticas. El software de redes neuronales artificiales ha abierto excitantes posibilidades para el reconocimiento de formas y habilidades de procesamiento de información al estilo de como lo hacen los humanos.
Conforme transitamos por la cuarta era, continúan intensificándose los problemas asociados con el software de computadoras :
  La sofisticación del hardware ha dejado desfasada nuestra capacidad de construir software que pueda explotar el potencial del hardware.
  Nuestra capacidad de construir nuevos programas no puede dar abasto a la demanda de nuevos programas.
  Nuestra capacidad de mantener los programas existentes está amenazada por el mal diseño y el uso de recursos inadecuados.
Los principios básicos de la Ingeniería de Software
En los primeros días de la informática, la programación se veía como un “arte”. Existían pocos métodos formales, y pocas personas los usaban. El programador aprendía normalmente su oficio mediante prueba y error.
Hoy, la distribución de costos en el desarrollo de sistemas informáticos ha cambiado drásticamente. El software, en lugar del hardware, es normalmente el elemento principal del costo.
Los problemas existentes en el desarrollo de software no va a desaparecer rápidamente. Las soluciones que se van elaborando tienden a asistir prácticamente al desarrollador de software, y mejorar la calidad del software.
Mediante la combinación de métodos completos para todas las fases de desarrollo de software, mejores herramientas para automatizar estos métodos, bloques de construcción más potentes para la implementación del software, mejores técnicas para la garantía de calidad del software y una filosofía predominante para la coordinación, control y gestión, puede conseguirse una disciplina para el desarrollo del software : Ingeniería del software.

Una definición :
“El establecimiento y uso de principios de ingeniería robustos, orientados a obtener software económico que sea fiable y funcione de manera eficiente sobre máquinas reales.” (Fritz Bauer)
La ingeniería de software cubre tres elementos claves :
Métodos
Herramientas, y
Procedimientos
que facilitan al gestor controlar el proceso de desarrollo de software y suministrar las bases para construir software de alta calidad de una forma productiva.
Los métodos indican “cómo” construir técnicamente el software. Estos métodos abarcan tareas que incluyen : planificación y estimación de proyectos, análisis de los requisitos del sistema y del software, diseño de estructuras de datos, arquitectura de programas y procedimientos algorítmicos, codificación, prueba y mantenimiento.
Las herramientas suministran un soporte automático o semiautomático para los métodos. Cuando se integran las herramientas de forma que la información creada por una herramienta pueda ser usada por otra, se establece un sistema de soporte llamada Ingeniería de Software Asistida por Computadora (CASE).
Los procedimientos son el pegamento que junta los métodos y las herramientas, y facilita un desarrollo racional y oportuno. Definen la secuencia en la que se aplican los métodos, las entregas (documentos, informes, formas, etc.) que se requieren, los controles para asegurar la calidad y coordinar los cambios, y las directrices que ayudan a los gestores de software a evaluar el progreso.

La complejidad de los problemas
No todos los sistemas de software son complejos. En particular las aplicaciones que son especificadas, construidas, mantenidas, y usadas por la misma persona, no pueden considerarse problemas complejos. Estos sistemas tienden a tener propósitos limitados y un ciclo de vida muy corto. Estas aplicaciones generalmente son más tediosas que difícil de desarrollar, y en consecuencia aprender cómo se diseñan no es de nuestro interés.
Las aplicaciones de mayor envergadura (las que presentan comportamiento variado, mantienen la integridad de cientos de transacciones de registro de información, control de tráfico, etc.), son esencialmente complejas.
Esta complejidad es, en general, imposible de ser comprendida en su totalidad por una sola persona. Por esto se deben considerar formas disciplinadas para manejar la complejidad.
“La complejidad del software es una propiedad esencial, no una cuestión accidental” (Brooks). En general la complejidad deriva de

cuatro elementos :

La complejidad del dominio del problema,
La dificultad para administrar el proceso de desarrollo,
La posible flexibilidad del software, y
Los problemas de caracterizar el comportamiento de sistemas discretos.
La complejidad del dominio del problema
Los problemas que se intenta resolver en software frecuentemente involucran elementos de complejidad, tales como requerimientos que compiten entre sí, o contradictorios. A la complejidad propia del problema hay que agregarle las que surgen de requerimientos no funcionales, tales como usabilidad, performance, costo, continuidad en el tiempo, y confiabilidad.
Otro aspecto de la complejidad surge por el problema de comunicación entre los usuarios y los desarrolladores : los usuarios generalmente encuentran muy difícil dar en forma precisa sus necesidades de manera que los desarrolladores puedan entenderlas. En algunos casos extremos los usuarios pueden tener sólo una vaga idea de lo que desean. Los usuarios y desarrolladores tienen diferentes perspectivas de la naturaleza de la solución. En realidad, aún si los usuarios tienen perfecto conocimiento de sus necesidades, los desarrolladores tienen pocos instrumentos para capturar en forma precisa estos requerimientos. La manera común de expresar los requerimientos es con texto, acompañados por algunos diagramas. Estos documentos son difíciles de comprender, son abiertos a interpretación variada, y frecuentemente contienen elementos que son de diseño en vez de requerimientos esenciales.
Otra complicación adicional es que los requerimientos de un sistema frecuentemente cambian durante su desarrollo.

La dificultad de administrar el proceso de desarrollo
Hoy en día es habitual encontrar sistemas cuyo tamaño se mide en cientos de miles, y aún millones, de líneas de código. Ninguna persona puede entender tales sistemas en forma completa. Si estos sistemas son descompuestos de alguna manera significativa, nos podemos encontrar con cientos o miles de módulos separados. Esto hace que se utilicen grupos de desarrollo, e idealmente tan pequeño como sea posible. Más desarrolladores significa más complejidad de comunicación y de aquí más dificultad de coordinación, y en particular si el grupo está geográficamente disperso. Con un grupo de desarrollo, la clave del desafío de administración es siempre mantener una unidad e integridad de diseño.

La posible flexibilidad del software
En la industria del software existen muy pocos estándares para la construcción de código. Cada desarrollador puede construir de manera diferente una solución para un mismo problema.
El desarrollo de software continua como un negocio de labor intensiva.
Los problemas de caracterizar el comportamiento de sistemas discretos
En aplicaciones grandes, puede haber cientos y aún miles de variables así como también más de un hilo de control. El conjunto completo de estas variables, sus valores actuales, las direcciones actuales y las pilas de llamada de cada proceso dentro del sistema constituyen el estado presente de la aplicación. El software es ejecutado sobre computadoras digitales, y por lo tanto constituyen un sistema con estados discretos. Los sistemas discretos tienen una cantidad finita de estados posibles, en grandes sistemas estos tienen una explosión combinatoria haciendo este número muy grande.
Los sistemas tienden a ser diseñados con una separación de intereses, para que el comportamiento de una parte del sistema tenga un impacto mínimo sobre el comportamiento de otra. Sin embargo cada evento externo al sistema tiene el potencial de colocar a este en un nuevo estado, y de esta manera el pasaje de estado a estado no es siempre determinístico. En algunas circunstancias, un evento externo puede corromper el estado de un sistema, porque sus diseñadores fallaron al tomar en cuenta ciertas interacciones entre eventos. En sistemas discretos todos los eventos externos pueden afectar cualquier parte del estado interno del sistema. Esta es la motivación primaria para un testeo vigoroso del sistema, pero excepto para sistemas triviales, el testeo exhaustivo es imposible. Debido a que no se cuenta con herramientas matemáticas o la capacidad intelectual para modelar el comportamiento completo de grandes sistemas, deben establecerse niveles aceptables para asegurar su validez.

Los cinco atributos de un sistema Complejo
Hay cinco atributos comunes a todo sistema complejo (Simon, Ando, y Courtois) :
  “Frecuentemente, la complejidad toma la forma de una jerarquía, por lo cual un sistema complejo está compuesto de subsistemas interrelacionados que tienen a la vez sus propios subsistemas, hasta que algún nivel menor de componentes elementales es alcanzado.”
La estructura jerárquica es un factor importante que permite entender, describir, y ver un sistema y sus partes.
  “La elección de qué componentes en un sistema son primitivas es relativamente arbitrario y depende del observador del sistema.”
  “Las vinculaciones internas de las componentes son generalmente más fuertes que las vinculaciones entre los componentes. Esto tiende a separar la dinámica de alta frecuencia de las componentes - involucrando la estructura interna de las componentes - de la dinámica de baja frecuencia - involucrando la interacción entre las componentes.”
Esta diferencia entre interacción interna y externa de las componentes proveen una clara diferenciación de intereses entre las diferentes partes del sistema, haciendo posible estudiar cada parte en forma aislada.
  “Los sistemas jerárquicos están generalmente compuestos de solamente pocas clases de subsistemas diferentes en varias combinaciones y órdenes.”
Los sistemas complejos tienen patrones comunes. Estos patrones pueden requerir el reuso de pequeñas o grandes componentes.
  “Un sistema complejo que trabaja, invariablemente ha evolucionado de un sistema simple que trabajaba... Un sistema complejo diseñado de la nada nunca trabajará, y no puede ser `emparchado' para hacer que trabaje. Se debe empezar nuevamente, comenzando con un sistema simple que trabaje.”

Diseño de software
La evolución del diseño de software, como parte del proceso de desarrollo de software, es un proceso continuo que se ha ido produciendo durante las últimas tres décadas. Los primeros trabajos sobre diseño se centraron sobre los criterios para el desarrollo de programas modulares y los métodos para mejorar la arquitectura del software de una manera descendente. Los aspectos procedimentales de la definición del diseño evolucionaron hacia una filosofía denominada programación estructurada. Posteriores trabajos propusieron métodos para la traducción del flujo de datos o de la estructura de los datos, en una definición de diseño. Nuevos enfoques para el diseño proponen un métodoorientado a objetos para la obtención del diseño.
Cada metodología de diseño de software introduce heurísticas y notaciones propias, así como una visión algo particular de lo que caracteriza a la calidad del diseño. Sin embargo, todas las metodologías tienen varias características comunes :
  Un mecanismo para la traducción de la representación del campo de información en una representación de diseño ;
  Una notación para representar los componentes funcionales y sus interfaces ;
Heurísticas para el refinamiento y la partición, y
  Criterios para la valoración de la calidad.
Diseño puede definirse como :
“Proceso iterativo de tomar un modelo lógico de un sistema junto con un conjunto de objetivos fuertemente establecidos para este sistema y producir las especificaciones de un sistema físico que satisfaga estos objetivos.” (Gane - Sarson).
“Actividad por la cual un relevamiento de datos y funciones de un sistema (modelo esencial) se traduce en un plan de implementación. El modelo es volcado en una tecnología determinada”.
“...el proceso de aplicar distintas técnicas y principios con el propósito de definir un dispositivo, proceso o sistema con los suficientes detalles como para permitir su realización física.” (E. Taylor)

Objetivos del Diseño
El objetivo más importante es :
entregar las funciones requeridas por el usuario (Satisfaga una especificación funcional dada).
Pero además para lograr esto deben considerarse los aspectos de :

Rendimiento : cuán rápido permitirá el diseño realizar el trabajo dado un recurso particular de hardware. Es decir que contemple las limitaciones del medio donde será implementado el sistema, y alcance los requerimientos de performance y uso de recursos.

Control : protección contra errores humanos, máquinas defectuosas, o daños intencionales.

Cambiabilidad : facilidad con la cual el diseño permite modificar el sistema.
Generalmente estos tres factores trabajan unos contra otros : un sistema con muchos controles tenderá a degradar su rendimiento, un sistema diseñado para un alto rendimiento solo podrá ser cambiado con dificultad, etc..
Además deberá 
Satisfacer criterios de diseño sobre la forma interna y externa del producto obtenido.
Satisfacer restricciones sobre el proceso de diseño en sí mismo, tales como su tiempo o costo, o las herramientas disponibles para hacer el diseño.


Tomado De: Rincón Del Vago

El Futuro De La Computación.

                                                                                 
 El futuro de la computación es desaparecer.

La computación nació en el siglo XIX, hace poco menos de 200 años. Desde entonces, ha atravesado cinco épocas distintas en las que ha ido progresando paulatinamente hacia su desaparición.

La primer época fue la más larga, abarcando desde 1833 hasta 1953. Esta época vio el nacimiento del motor de diferencia de Charles Babbage y siguió el desarrollo de las computadoras a gran escala, particularmente durante la segunda guerra mundial. Los bulbos y  las tarjetas perforadas caracterizaron a esta época. 


En 1953, se creó el primer transistor en la Universidad de Manchester. Con este desarrollo se inició la segunda época de la computación. El transistor es un circuito integrado que funciona como un motor de diferencia en miniatura. El transistor bajó el costo de las computadoras, sacándolas de los laboratorios de gobierno y colocándolas en el mundo de los negocios. Las computadoras dejaron atrás los bulbos y consistían ahora de paneles de estos transistores.
La tercera época inició durante la década de los 60, con la invención del microchip o circuito integrado. Los microchips son una colección de transistores contenidos en un espacio tridimensional muy pequeño. El poder computacional explotó y las computadoras cambiaron, de ser monolitos que ocupaban una habitación entera, a ocupar nuestros escritorios. La velocidad de los procesadores se duplicó cada dos años y los sistemas operativos con interfaz gráfica trajeron la computación a todos.
La cuarta época no empieza en una fecha definida ni corresponde a una sola  innovación tecnológica. Fueron las fuerzas económicas y el acelerado desarrollo tecnológico lo que definió esta nueva generación: la era de ubicuidad. Una computadora en cada hogar (o dos o diez), una computadora en nuestros automóviles, en nuestros refrigeradores, en nuestros teléfonos. Las computadoras el día de hoy están alrededor de nosotros, mejorando nuestras vidas.
Lo cual nos trae a la quinta época: integración. Nos encontramos en la cúspide entre la cuarta y quinta generación, con un pie en una y el otro en la otra. La computación desaparecerá de nuestras vidas para integrarse en ellas. Rara vez consideramos que nuestros teléfonos son computadoras o que traemos en nuestro reproductor portátil de música suficiente espacio para almacenar todos los textos de la biblioteca nacional.
Esta integración continuará hasta que las computadoras no existan como tales, sino que sean parte de nuestras herramientas diarias. Permítanme un ejemplo. La semana pasada se ofreció en la tienda de iPhone la primera aplicación de realidad aumentada para este dispositivo. Con este tipo de aplicación, el usuario puede pararse frente a un cartel de horarios de trenes y sacar su iPhone. El iPhone, utilizando esta aplicación proyectará en su pantalla la imagen del cartelón, pero agregará datos actuales que obtiene de Internet e incluso video. De este modo un cartel estático se convierte en una experiencia dinámica para el usuario. Si su computadora tiene webcam, navegue a http://ge.ecomagination.com/smartgrid para ver una demostración en vivo.
El ejemplo ilustra las cuatro tendencias que facilitarán esta integración: miniaturización, centralización, reducción de costos e interfaces orgánicas.
Iniciemos discutiendo la miniaturización. Esta tendencia en la computación ha permitido que cada vez podamos tener mayor capacidad de procesamiento y almacenaje en espacios más reducidos, con mejores eficiencias de costo.
A la centralización se le conoce como “cloud computing”. En un revés de las tendencias tecnológicas, el Internet está permitiendo que nuevamente nuestras computadoras reciban servicio de una estructura centralizada. Ya podemos guardar nuestros datos en línea, usar procesadores de palabras y hojas de cálculo en línea (Google Docs), tener nuestra agenda y correo en línea, etc. Incluso un nuevo servicio anunciado nos permitirá rentar espacio en una computadora que actuará como una consola de videojuegos, mandando sólo el video a nuestra pantalla y encargándose de todo el trabajo de almacenamiento y el procesamiento de los juegos (OnLive).
La reducción de costos, por el otro lado, es una tendencia que solamente se ha acelerado con el paso del tiempo. En general, son las economías de escala las que permiten estas reducciones. El aumento en computadores personales per capita a nivel mundial se ha disparado, sin mencionar otros dispositivos como los teléfonos celulares. Cuando incluso nuestros autos y refrigeradores tienen pantallas de cristal líquido, el costo de estas baja constantemente.
El componente final de esta nueva generación es la interfaz orgánica. El mouse revolucionó el mundo computacional en su época, permitiendo el uso de interfaces gráficas. Pero hoy en día existen mejores maneras de interactuar con los componentes electrónicos. Las pantallas táctiles son un buen ejemplo de esta tendencia. Los controladores de el sistema de videojuego de Nintendo (Wii) son un mejor ejemplo, en donde para mover una raqueta en la pantalla, movemos el controlador como si fuera una raqueta. Recientemente, Microsoft anunció una actualización para su propia consola de videojuegos (Xbox 360) llamada Natal. Esta nueva actualización utilizará una cámara y software muy avanzado para poder traducir los movimientos de los jugadores en acciones en la pantalla, sin la necesidad de un controlador. Otro ejemplo es un lente de contacto desarrollado por científicos en la Universidad de Washington, que contiene una pequeña pantalla y un receptor minúsculo para proyectar imágenes sencillas directamente en nuestros ojos.
Estas cuatro tendencias y una gran cantidad adicional de avances tecnológicos permitirán que la computación se desvanezca y pase desapercibida; asistiéndonos en todas las facetas de nuestra vida sin ser intrusiva. Las cuatro son complementarias y dibujan el futuro de la computación: desaparecer de nuestra conciencia, para integrarse completa y totalmente en nuestras vidas cotidianas.
Una última palabra acerca del futuro de la computación. Hemos discutido la quinta época de la computación. ¿Qué podemos esperar de la sexta? Aunque predecir el futuro lejano siempre es imprudente, éste viene cada vez más rápido. Ya hoy se pueden vislumbrar los inicios de la sexta época: la era de la inteligencia artificial.



Mantenimiento Robotico




Uno de los pilares que sustenta a la robótica es la formación para conseguir su buen funcionamiento y una fácil aceptación por parte del usuario, además de ser un aspecto muy importante para obtener el máximo rendimiento de los equipos.





Ajustes:

Sistema de ajuste de la respuesta del controlador a errores que ajusta los valores en el algoritmo PID.

Alimentación Por Goteo            
 Tipo de sistema de suministro de lubricante que incluye un depósito pequeño de lubricante conectado a tubos que distribuyen el lubricante a las partes del robot.

Alimentación Por Mecha           
 Tipo de sistema de suministro de lubricante que incluye un depósito pequeño de lubricante que distribuye el lubricante a las partes del robot a través de una tira de material absorbente, la cual también filtra el lubricante.

Autoajuste        
Característica en algunos dispositivos de control de motores que ajusta automáticamente el sistema de control al arrancar.

Bloqueo Físico
Procedimiento de aislamiento de energía que impide físicamente el flujo o movimiento de energía. El bloqueo físico a menudo es un respaldo de seguridad para el bloqueo/etiquetado.

Bloqueo/Etiquetado    
Método para proteger a los empleados contra la puesta en marcha accidental de un robot mediante el bloqueo y etiquetado apropiado de los robots que están sometidos a mantenimiento.
Fricción                Resistencia al movimiento relativo entre superficies. La fricción se causa por el contacto entre asperezas de las superficies.


Lubricación Excesiva    
Proceso de aplicar demasiado lubricante a un componente del robot. La lubricación excesiva puede llevar al mal funcionamiento del robot.

Lubricante         
 Sustancia que se usa para reducir la fricción entre dos superficies en movimiento relativo. El aceite y la grasa son lubricantes industriales comunes.
Mantenimiento               Reparación y soporte necesarios y básicos de las máquinas. El mantenimiento de los robots incluye tareas como lubricación, ajuste y reemplazo de partes.

Mantenimiento Preventivo     
 Mantenimiento realizado mientras un robot está en condiciones de trabajar para mantenerlo libre de averías.

Movimiento Relativo  
Cambio en la posición de un objeto en relación a otro. El contacto entre dos objetos en movimiento relativo causa fricción.

Pistola Manual
Dispositivo usado para aplicar lubricante manualmente a los robots.

Sistema De Control       
Mecanismo manual o automático usado para manejar procesos dinámicos ajustando o manteniendo variables físicas como la velocidad o posicionamiento.

Sistema De Lubricación Central
 Método de suministro de lubricante automatizado que lubrica partes múltiples del robot a la vez.

Sistema De Lubricación Por Gravedad 
 Un tipo de sistema de suministro de lubricante que usa depósitos de lubricantes individuales desde los cuales se distribuye el lubricante a las partes del robot. Este sistema se usa a menudo con alimentaciones por goteo o alimentaciones por mecha.

Sistema De Niebla De Aceite   
 Método de suministro de lubricante que canaliza el aceite a través de la máquina a lugares deseados y dispensa el aceite con una boquilla rociadora. Los sistemas de niebla de aceite enfrían y lubrican muchas partes del robot a la vez.

Tiempo De Inactividad
Período de tiempo improductivo durante el cual las operaciones del robot cesan, a menudo debido a problemas mecánicos

Las 5 Generaciones De La Robotica.




Primera Generación: "Manipuladores"

Esta primera etapa se puede considerar desde los años 50s ,en donde las maquinas diseñadas cuentan con un sistema de control relativamente sencillo de lazo abierto, esto sigsnifica que no existe retroalimentación alguna por parte de algún sensor y realizan tareas previamente programadas que se ejecutan secuencial mente
Resumido: Los robots no se percatan de su entorno, adquieren información muy limitada de su entorno o nula y en consecuencia a esta actúan. 




  • Segunda Generación: "Robots De Aprendizaje"

Lo que su previa generación, disponiendo de sistemaa segunda etapa se desarrolla hasta los años 80s, este tipo de robots son un poco mas conscientes de su entorns de control de lazo cerrado en donde por medio de sensores adquieren información de su entorno y obtienen la capacidad de actuar o adaptarse según los datos analizados. 


También pueden aprender y memorizar la secuencia de movimientos deseados mediante el seguimiento de los movimientos de un operador humano. 



Resumido: Los robots ahora cuentan con un sistema de retroalimentación que les permite obtener mas datos de su entorno y guardarlos en algún medio de almacenamiento junto con las instrucciones


  • Tercera Generación: "Robots Con control Sensorizado"
Durante esta etapa, que tiene lugar durante los años 80s y 90s, los robots ahora cuentan con controladores(computadoras) que usando los datos o la información obtenida de sensores, obtienen la habilidad de ejecutar las ordenes de un programa escrito en alguno de los lenguajes de programación que surgen a raíz de la necesidad de introducir las instrucciones deseadas en dichas maquinas. 

Los robots usan control del tipo lazo cerrado, lo cual significa que ahora son bastante conscientes de su entorno y pueden adaptarse al mismo. 

Resumido: Los robots se vuelven reprogramables, usan controladores o computadoras para analizar la información captada de su entorno mediante sensores(cabe mencionar que se desarrolla la visión artificial) y aparecen los lenguajes de programación. 

  • Cuarta Generación: "Robots Inteligentes"
Esta generación se caracteriza por tener sensores mucho mas sofisticados que mandan información al controlador y analizarla mediante estrategias complejas de control. Debido a la nueva tecnología y estrategias utilizadas estos robots califican como "inteligentes", se adaptan y aprenden de su entorno utilizando "conocimiento difuso" , "redes neuronales", y otros métodos de análisis y obtención de datos para así mejorar el desempeño general del sistema en tiempo real, donde ahora el robot puede basar sus acciones en información mas solida y confiable, y no solo esto sino que también se pueden dar la tarea de supervisar el ambiente que les rodea, mediante la incorporación de conceptos "modélicos" que les permite actuar a situaciones determinadas. 

Resumido: Mejores sistemas sensoriales, mejores estrategias de control y análisis de información,capaces de comprender su entorno y actuar ante el mediante conceptos "modélicos" en tiempo real

  • La Quinta Generación y Mas Allá.
La siguiente generación sera una nueva tecnología que incorporara 100% inteligencia artificial y utilizara modelos de conducta y una nueva arquitectura de subsumción. 

Esta etapa depende totalmente de la nueva generación de jóvenes interesados en robótica, una nueva era de robots nos espera.

Mantenimiento Del Pc




 La computadora hoy en día se ha vuelto una herramienta indispensable en muchas areas  lo mismo puede servir para calcular la distancia de la estrella mas lejana de nuestro sistema solar como para la diversión y esparcimiento de un niño que la utiliza para jugar. Al igual que el ama de casa la utiliza para llevar sus recetas de cocina, esta herramienta necesita de cuidados muy especiales.


El mantenimiento del computador es aquel que debemos realizar al computador cada tiempo, bien sea para corregir fallas existentes o para prevenirlas.



  •  ¿Que es el Mantenimiento Para PC?
Es el cuidado que se le da al computador para prevenir posibles fallas, se debe tener en cuenta la ubicación física del equipo ya sea en la oficina o en el hogar, así como los cuidados especiales cuando no se esta usando el equipo. Son series de rutinas periódicas que debemos realizar a la PC, necesarias para que la computadora ofrezca un rendimiento óptimo y eficaz a la hora del funcionamiento.

  •  Tipos De Mantenimiento.

Mantenimiento Preventivo.

Consiste en crear un ambiente favorable para el sistema y conservar limpias todas las partes que componen una computadora. El mayor numero de fallas que presentan los equipos, es por la acomunalar de polvo en los componentes internos, ya que este actúa como aislante térmico.
El calor generado por los componentes no pueden dispersarse adecuadamente por que es atrapado por la capa de polvo.

Las partículas de grasa y aceite que pueda contener el aire del ambiente se mezclan con el polvo, creando una espesa capa de aislante que refleja el calor hacia los demás componentes, con lo cual se reduce la vida útil del sistema en general.

Por otro lado, con tiene elementos conductores que pueden generar cortocircuitos entre las trayectorias de los circuitos impresos y tarjetas de periféricos.
Si se quiere prolongar la vida util del equipo y hacer que permanezca libre de reparaciones por muchos años se debe realizar la limpieza con frecuencia.

  • MANTENIMIENTO PREVENTIVO AL CPU

El medio ambiente que rodea ala computadora personal encuentra a ella un imán de polvo y esto es lo que mas afecta provocando pequeñas fallas en los componentes electrónicos  el polvo acumulado reduce la eficiencia de los ventiladores de enfriamiento y puede actuar como un manto aislante que conserva el calor y no permite que la irradiación de este se aleje de los componentes.


  • Hay que poner énfasis en las siguientes àreas:



Tarjeta Madre: 
Se deben utilizar herramientas como una brocha de cerdas rígidas limpia,limpiador electrónico  una aspiradora y un producto limpiador desengranaste.

Ventilador del CPU:

Este puede acumular casi tanto el polvo como la fuente de poder, y como el CPU genera demasiado calor, es importante conservar limpio el ventilador para mantener en buen estado su capacidad de enfriamiento.

Ranuras de expasion (ISA,PCI Y AGP):
Se debe mantener el polvo de estas ranura para asegurar una buena calidad de conexión  Una vez retirado el polvo excesivo se puede aplicar un producto que acabe de retirar la suciedad de la tarjeta y que normalmente contiene sustancias desengrasantes; esto sirve para evitar que pequeños residuos de grasa provoquen la acumulación temprana de polvo.SIMMS Y DIMMS DE 

Memoria RAM:
Es necesario desmontarlos de la tarjeta madre, se debe presionar las lenguetas laterales; sino es posible con los dedos, puede hacerse con la ayuda de un destonillador plano. El procedimiento para retirar el polvo de estos dispositivos se recomienda limpiarlas con una goma de lapiz, asegurándose que no sea demasiado dura para maltratar las terminales. Acto seguido se podra aplicar un desegrasante para eliminar cualquier residuo de grasa.


  • Unidades Lectoras de almacenamiento.


Disco Duro:
Retirar el polvo depositado sobre la superficie externa con una brocha y aspiradora.

Unidad Lectora de Disco Flexible:
Requiere den un limpiador especial, que puede adquirir cualquier tienda de productos de computaciòn. El disco limpiador tiene el aspecto de un disco normal, solo que la parte interior de la cubierta del disco esta hecha de tela suave y porosa en lugar de substrato plàstico/magnetico empleado en un disco normal. El conjunto de limpieza incluye un liquido que se aplica en la tela del disco el cual se introduce en la unidad lectora y se intetara tener acceso a el mediante el comando DIR A: si esta em ambiente de Dos, o presionar dos veces el boton izquierdo del raton en la unidad A: de la ventana de Mi PC, en Windows 95, 98 y Windows NT 4.0

Fuente de Alimentaciòn:
Nunca abra la fuente de poder para tratar d limpiar el interior, aunque se puede y debe aspirar el polvo de los orificios laterales de la fuente. Esto ayuda al buen funcionamiento del ventilador y lo capacita para sacar mas aire del gabinete. La parte posterior se puede aspirar el polvo acumulado sobre la superficie de las aspas del ventilador.

Tarjetas en el sistema:
Se debe desmontar de las ranuras de expansión, lo cual implica retirar un tornillo que fija la tarjeta a la estructura del gabinete y evita que se desprenda.

  • MANTENIMIENTO PREVENTIVO A DISPOSITIVOS:


Antes que nada definiremos a los dispositivos a los cuales les daremos mantenimientos los cuales son considerados periféricos. Estos pueden ser de entrada, de salida y también hay de entrada y salida.
Un dispositivos de entrada es aquel que mandara informaciòn al CPU. Un dispositivo de salida será aquel que reciba información del CPU. Por lo tanto, un dispositivo de entrada y salida será con el cual se puda enviar y recibir información del CPU.
Monitor: No se debe abrir el monitor para limpiarlo; porque contiene condesadores de alta capacidad eléctrico que pueden producir un peligroso y hasta mortal choque elèctrico incluso después de haberlo apagado y desconectado. Solo se podra limpiar la parte exterior del computador y la
pantalla con una solución limpiadora de cristales , utilizando un lienzo libre de pelusa y vaciar el limpiador sobre el lienzo no sobre el cristal.
Teclado: La primera linea de defensa es un bote con gas comprimido, que se puede encontrar en tiendas de productos de computación y electrónica  La lata incluye un diminuto popote o pajilla para su aplicación  que se ajusta en la boquilla de la lata y le permite dirigir el gas a otros sitios de difícil acceso, como los espacios entre las teclas.


Mantenimiento Correctivo Para PC.

Consisten en la reparaciòn de algunos de los componentes de la computadora, puede ser el cambio de una tarjeta de video, memoria RAM, disco duro, o el carmbio total de uno de sus periféricos como el teclado, mouse, monitor etc.
Resulta mucho màs barato cambiar algùn dispositivo que el tratar de repararlo, muchas veces nos vemos limitado de tiempo y con sobre carga de trabajo, ademas se nesecitan herramientas especiales para probar algunos dispositivos.
Para realizar el mantenimiento debe considerarse los siguientes:

-En el àmbito operativo, la reconfiguraciòn de la computadora y los principales programas que utiliza.
-Revisión de los recursos del sistema, memoria, procesador y disco duro.

-Optimizan de la velocidad de desempeño de la computadora.
-Revisión de la instalación eléctrica (solo para especialistas)
-Un completo reporte del mantenimiento del equipo.
-Observaciones que puedan mejorar el funcionamiento del equipo en general.











Bienvenid@s

Mantenimiento De Computadoras, Les Da su Merecida Bienvenida...!!!!

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Florencia-Caqueta-Colombia | Bloggerized by Lasantha - Premium Blogger Themes | Pagina diseñada por Norman Basto ©