I just made a new Voki. See it here:
http://tinyurl.com/ybqcpl4o
Rama de la Computación
martes, 5 de marzo de 2019
sábado, 26 de septiembre de 2015
LA ROBOTICA
Definición
La robótica es una ciencia o
rama de la tecnología, que estudia el diseño y construcción de máquinas capaces
de desempeñar tareas realizadas por el ser humano o que requieren del uso de
inteligencia. Las ciencias y tecnologías de las que deriva podrían ser: el
álgebra, los autómatas programables, las máquinas de estados, la mecánica o la
informática.
¿Qué
es la robótica?
Desde siempre, las personas
han inventado mecanismos y desarrollado tecnologías que les permitieran
traspasar los límites de sus capacidades. Asimismo, fantaseaban con la idea de
jugar a ser Dios y crear seres a su imagen y semejanza. El enorme progreso en
ingeniería, electrónica e informática lo está haciendo posible. Aquí, allá...
en todas partes. Los robots están entre nosotros.
La robótica es la ciencia
que estudia el diseño y la implementación de robots, conjugando múltiples
disciplinas, como la mecánica, la electrónica, la informática, la inteligencia
artificial y la ingeniería de control, entre otras.
Para definirlo en términos
generales, un robot es una máquina automática o autónoma que posee cierto grado
de inteligencia, capaz de percibir su entorno y de imitar determinados
comportamientos del ser humano. Los robots se utilizan para desempeñar labores
riesgosas o que requieren de una fuerza, velocidad o precisión que está fuera
de nuestro alcance. También existen robots cuya finalidad es social o lúdica.
Robots,
¿dónde?, ¿para qué?
Los robots se usan en
diversos ámbitos y para cumplir tareas variadas: desde los brazos robóticos
utilizados en la industria automotriz hasta el novedoso sistema quirúrgico Da
Vinci, que permite practicar cirugías de alta complejidad poco invasivas y con
una precisión sin precedentes; desde los robots espaciales diseñados para
explorar la superficie de planetas desconocidos hasta la aspiradora doméstica
Roomba, que realiza la limpieza de manera autónoma, o el Nano Air Vehicle
(NAV), también llamado nanocolibrí, un pájaro utilizado para espionaje militar.
Pero quizá los más llamativos sean los androides, que imitan la morfología, el
comportamiento y el movimiento de los seres humanos. Uno de los más conocidos
en la actualidad es ASIMO, pensado para llevar a cabo labores asistenciales y
sociales. Aunque se encuentra en una etapa experimental, ASIMO es capaz de
caminar o subir escaleras por sí solo.
La
robótica viene de antiguo
Desde siempre, las personas
han querido desarrollar seres animados con diferentes fines. Este deseo de dar
vida, conjugado con el progreso mecánico, científico, tecnológico y electrónico
a lo largo de la historia, dio lugar a la creación de los autómatas, máquinas
que imitan la figura y los movimientos de un ser animado, antecedente directo
de los robots.
Los primeros autómatas se
remontan a la Antigüedad: egipcios y griegos fueron pioneros en el desarrollo
de la mecánica y la ingeniería. Conocían y utilizaban a la perfección
principios mecánicos como la rueda, el eje, la cuña, la palanca, el engranaje,
la rosca y la polea, elementos que constituyen la base de muchos mecanismos
empleados en la actualidad. Tenían también un profundo conocimiento de
hidráulica y neumática, que usaban para dar movimiento a algunas estatuas.
En el siglo I d.C., Herón
de Alejandría escribió el primer tratado de robótica, Los autómatas, y creó los
primeros autómatas: el teodolito, un aparato que medía ángulos, distancias y
desniveles, y el odómetro, que medía distancias recorridas.
Historia
La historia de la robótica
ha estado unida a la construcción de “artefactos”, que trataban de materializar
el deseo humano de crear seres semejantes a nosotros que nos descargasen del
trabajo. El ingeniero español Leonardo Torres Quevedo (que construyó el primer
mando a distancia para su torpedo automóvil mediante telegrafía sin
hilodrecista automático, el primer transbordador aéreo y otros muchos ingénios)
acuñó el término “automática” en relación con la teoría de la automatización de
tareas tradicionalmente asociadas a los humanos.
Durante la Edad Media, dos
personajes se destacaron por sus invenciones. Alberto Magno (1206-1280) creó un
autómata de hierro que le servía como mayordomo —podía caminar, abrir puertas y
comunicarse con los invitados—, y una cabeza parlante que predecía el futuro.
Al-Jazari, uno de los más grandes ingenieros de la historia, inventó un reloj
elefante, con seres humanos y animales mecánicos.
El Renacimiento fue un
período rico en pensadores e invenciones. El enorme interés por la
investigación en el campo de las ciencias que explican el mundo y al ser humano
impulsó el desarrollo de espectaculares maquinarias.
Leonardo Da Vinci
(1452-1519), quizás el más grande inventor de todos los tiempos, creó, entre
otras, la máquina de volar.
El matemático y filósofo
Blas Pascal (1623-1662), un destacado representante del racionalismo, inventó
la primera máquina de calcular. Durante la misma época, la corriente de
pensamiento de René Descartes (1596-1650) se sostuvo en el postulado de que
todo se explica a través de las matemáticas. También tomó al ser humano como
referente y antecesor primero de toda maquinaria.
Por su parte, el ingeniero e
inventor Jacques de Vaucanson (1709-1782) creó un pato artificial que movía las
alas y realizaba el proceso digestivo completo, y dos músicos autómatas: El
flautista y El tamborilero, que podían tocar un amplio repertorio musical.
Según
su estructura
La estructura, es definida
por el tipo de configuración general del Robot, puede ser metamórfica. El
concepto de metamorfismo, de reciente aparición, se ha introducido para
incrementar la flexibilidad funcional de un Robot a través del cambio de su
configuración por el propio Robot. El metamorfismo admite diversos niveles,
desde los más elementales (cambio de herramienta o de efecto terminal), hasta
los más complejos como el cambio o alteración de algunos de sus elementos o
subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse
bajo la denominación genérica del Robot, tal como se ha indicado, son muy
diversos y es por tanto difícil establecer una clasificación coherente de los
mismos que resista un análisis crítico y riguroso. La subdivisión de los
Robots, con base en su arquitectura, se hace en los siguientes grupos:
poliarticulados, móviles, androides, zoomórficos e híbridos.
1.
Poliarticulados
En este grupo se encuentran
los Robots de muy diversa forma y configuración, cuya característica común es
la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados
para efectuar desplazamientos limitados) y estar estructurados para mover sus
elementos terminales en un determinado espacio de trabajo según uno o más
sistemas de coordenadas, y con un número limitado de grados de libertad. En
este grupo, se encuentran los manipuladores, los Robots industriales, los
Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo
relativamente amplia o alargada, actuar sobre objetos con un plano de simetría
vertical o reducir el espacio ocupado en el suelo.
2.
Móviles
Son Robots con grandes
capacidades de desplazamiento, basadas en carros o plataformas y dotadas de un
sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose
por la información recibida de su entorno a través de sus sensores. Estos
Robots aseguran el transporte de piezas de un punto a otro de una cadena de
fabricación. Guiados mediante pistas materializadas a través de la radiación
electromagnética de circuitos empotrados en el suelo, o a través de bandas
detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y
están dotados de un nivel relativamente elevado de inteligencia.
3.
Androides
Son Robots que intentan
reproducir total o parcialmente la forma y el comportamiento cinemático del ser
humano. Actualmente, los androides son todavía dispositivos muy poco
evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al
estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y
sobre el que se centra la mayoría de los trabajos, es el de la locomoción
bípeda. En este caso, el principal problema es controlar dinámica y
coordinadamente en el tiempo real el proceso y mantener simultáneamente el
equilibrio del Robot.
4.
Zoomórficos
Los Robots zoomórficos, que
considerados en sentido no restrictivo podrían incluir también a los androides,
constituyen una clase caracterizada principalmente por sus sistemas de
locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica
de sus posibles sistemas de locomoción es conveniente agrupar a los Robots
zoomórficos en dos categorías principales: caminadores y no caminadores. El
grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los
experimentos efectuados en Japón basados en segmentos cilíndricos biselados
acoplados axialmente entre sí y dotados de un movimiento relativo de rotación.
Los Robots zoomórficos caminadores multimedios son muy numerosos y están siendo
objeto de experimentos en diversos laboratorios con vistas al desarrollo
posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de
evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots
serán interesantes en el campo de la exploración espacial y en el estudio de
los volcanes.
5.
Híbridos
Corresponden a aquellos de
difícil clasificación, cuya estructura se sitúa en combinación con alguna de
las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por
ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo,
uno de los atributos de los Robots móviles y de los Robots zoomórficos.
Ver video__
sábado, 19 de septiembre de 2015
¿Qué
es la inteligencia artificial?
La inteligencia artificial
es considerada una rama de la computación y relaciona un fenómeno natural con
una analogía artificial a través de programas de computador. La inteligencia
artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de
programas basados en comparaciones con la eficiencia del hombre, contribuyendo
a un mayor entendimiento del conocimiento humano.
Si por otro lado es tomada
como ingeniería, basada en una relación deseable de entrada-salida para
sintetizar un programa de computador. El resultado es un programa de alta
eficiencia que funciona como una poderosa herramienta para quien la
utiliza.
A través de la inteligencia
artificial se han desarrollado los sistemas expertos que pueden limitar la
capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje
hablado y escrito sobre la base de la experiencia, para luego hacer juicios
acerca de un problema, cuya solución se logra con mejores juicios y más
rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el
85 % de los casos de diagnóstico.
¿Puede
la inteligencia ser artificial?
La inteligencia artificial
(IA) puede definirse como el medio por el cual las computadoras, los robots y
otros dispositivos realizan tareas que normalmente requieren de la inteligencia
humana. Por ejemplo, la resolución de cierto tipo de problemas, la capacidad de
discriminar entre distintos objetos o el responder a órdenes verbales. La IA
agrupa un conjunto de técnicas que, mediante circuitos electrónicos y programas
avanzados de computadora, busca imitar procedimientos similares a los procesos
inductivos y deductivos del cerebro humano. Se basa en la investigación de las
redes neuronales humanas y, a partir de ahí, busca copiar electrónicamente el
funcionamiento del cerebro.
El avance en la
investigación de las redes neuronales va ganando terreno a una velocidad
espectacular. Entre sus aplicaciones destaca la poderosa computadora Deep Blue,
que puede vencer a cualquier jugador de ajedrez: no sólo tiene gran cantidad de
jugadas programadas, sino que aprende de su adversario, por lo que se va
volviendo capaz de adelantarse a las decisiones de su enemigo y hundir sus estrategias
antes de que prosperen.
Esas redes también se han
usado en los autos robot, que pueden circular por las autopistas a una
velocidad normal con un excelente margen de seguridad, y de hecho han cruzado
la Unión Americana de costa a costa sin que el conductor tuviera que tocar el
volante o los pedales. Persisten dos problemitas: la cajuela continúa atiborrada
de equipo y cuestan un dineral. Pero siguiendo esta línea de avance, es posible
que en la próxima década sea común que en la central de autobuses una máquina
pregunte al pasajero si desea viajar en un autobús conducido por un humano o
guiado por computadora; este último servicio será más seguro y por lo tanto más
caro. Se espera que en poco tiempo, imitando el funcionamiento de nuestro
cerebro, las computadoras ya no tendrán un gran procesador, sino miles (y más
adelante millones) de pequeños procesadores totalmente interconectados entre
sí, lo que permitirá la maravillosa capacidad de aprender a través de
experiencias recogidas por los “sentidos” de la máquina (cámaras de video,
micrófonos, etcétera).
¿Qué
podemos esperar en el futuro?
Se han hecho cuantiosas
predicciones de lo que la aplicación de las técnicas de IA traería en el
futuro; algunas podrían ser realidad en poco tiempo y otras parecen francamente
especulativas. Echemos un vistazo:
En el terreno de las
computadoras personales, la velocidad de un procesador será enorme y no
podremos agotar su memoria ni cargando ciclos enteros de cine ruso, que
podremos ver doblados al español con una voz idéntica a la de los actores.
Serán gobernadas con la voz: “Actívate”. Quizá ya no sean necesarios los
monitores; unos anteojos inalámbricos de realidad virtual nos mostrarán cómo va
quedando nuestro texto. Los teclados también serán tan obsoletos como ahora lo
son las tarjetas con hoyitos; en vez de teclear, quizá podremos plasmar
palabras en la memoria de la computadora con sólo imaginarlas, gracias a una
discreta placa (chip) adherida a nuestra frente. Una voz agradable nos dirá al
oído que hemos cometido un error de sintaxis y nos proporcionará, si lo
deseamos, una lista de posibles soluciones. En lugar de usar el “ratón”,
podremos manipular el texto (o el dibujo, o lo que sea) con el movimiento de
nuestros ojos, que será detectado por un inofensivo rayo láser.
La red Internet, que llegará
a nuestra casa a través del cableado óptico, transportará inmensas cantidades
de información que serán cargadas en nuestra computadora en décimas de segundo.
Las imágenes aparecerán instantáneamente y nos reiremos de la época en que una
página tardaba hasta 10 minutos en “bajar”. Por medio de la red podremos
acceder a cualquier programa de televisión o radio que se transmita en
cualquier parte del mundo, con una traducción impecable, o guardarlo en la memoria
de la máquina si deseamos verlo más tarde, como si fuera una videocasetera.
Pero si algún amigo se perdió de ese programa, se lo enviaremos a su terminal
en segundos. Los estudiantes tendrán cada vez más clases virtuales en las que
accederán directamente a los bancos de información de la universidad y se
comunicarán con sus maestros sólo para resolver dudas o exámenes.
Pronto los robots comenzarán
a desplazar al personal que nos atiende detrás de las ventanillas. Una máquina
podrá perfectamente cambiarnos un cheque y resolver de manera satisfactoria las
dudas sobre nuestro estado de cuenta. El cajero automático del cine recibirá
nuestro dinero (o una tarjeta) para darnos a cambio entradas para la película
en el horario que le indiquemos. Y así será en los aeropuertos, las estaciones
de ferrocarril y en todas partes donde ahora hay ventanillas ocultando a
empleados que aguardan impacientes la hora de salida.
Es muy probable que la
economía cambie. Quedarán en el pasado los tipos de traje peleándose a gritos
en las casas de bolsa. Las computadoras, conectadas en red a los indicadores
bursátiles de todo el mundo, moverán los capitales de un lugar a otro, sin que
sea necesaria la voluntad humana, obedeciendo tan sólo a agresivos programas
que beneficiarán a los dueños del dinero, sin importar si una nación se hunde
en una pavorosa crisis en algunos instantes.
Los edificios “inteligentes”
serán comunes. Al llegar a casa la puerta se abrirá con el sonido de nuestra
voz. Sensores dispuestos en cada rincón encenderán la luz de la habitación a la
que entremos y dejarán a oscuras la que ha quedado sola, ahorrando
electricidad. La temperatura también será regulada por la computadora central
para ofrecernos un clima privado a nuestro gusto. Verbalmente activaremos la
televisión, el aparato de sonido o cualquier otro electrodoméstico conectado a
nuestra ama de llaves cibernética. Por las mañanas, el desayuno que dejamos en
el microondas comenzará a prepararse; en la radio la estación de nuestra
preferencia nos despertará mientras el calentador se ajusta para que nos demos
una ducha deliciosa. Al salir podremos estar tranquilos porque la casa estará
capacitada para detectar a posibles intrusos y, en caso dado, la alarma se
activará a la más mínima insinuación de peligro, dando aviso a los cuerpos de
seguridad.
Si llega a haber una guerra
global, ésta podría ser nombrada por los medios como “The Robot War”, en la que
los pilotos controlarían por realidad virtual pequeños y mortíferos aviones,
helicópteros y tanques a cientos de kilómetros del campo de batalla sin
arriesgar un solo cabello.
Es muy probable que en pocos
años, robots cirujanos realicen complejas intervenciones utilizando el
instrumental quirúrgico con la precisión de una impresora. Algún día, el Sojourner, el
robot que exploró Marte, será una caja de zapatos comparada con los que
llegarán a ese planeta, no para posar un espectrómetro sobre las piedras, sino
para construir los centros urbanos de los primeros colonizadores. La última
frontera serán los robots biológicos autor replicantes que poblarán en nuestro
nombre otros sistemas solares hasta hacerlos habitables para nuestra especie.
Ir a:
sábado, 12 de septiembre de 2015
SEGURIDAD
INFORMÁTICA
1.1 Definición de Seguridad Informática
La seguridad informática
consiste en asegurar en que los recursos del sistema de información de una
organización se utilizan de la manera que se decidió y que el acceso a la
información allí contenida así como su modificación solo sea posible a las
personas que se encuentren acreditadas y dentro de los límites de su
autorización.
1.2 Fiabilidad, Confidencialidad, Integridad y Disponibilidad
Si bien es cierto que todos
los componentes de un sistema informático están expuestos a un ataque, son los
datos y la información los sujetos principales de protección de las técnicas de
seguridad. La seguridad informática se dedica principalmente a proteger la confidencialidad,
la integridad y la disponibilidad de la información, por tanto, actualmente se
considera que la seguridad de los datos y la información comprenden 3 aspectos
fundamentales:
a)
Confidencialidad
b)
Integridad (seguridad de la información)
Disponibilidad
Hay que tener en cuenta que
tanto las amenazas como los mecanismos para contrarrestarla suelen afectar a
estas 3 características de forma conjunta por tanto un fallo del sistema que
haga que la información no sea accesible puede llevar consigo una pérdida de
integridad. Generalmente tiene que existir los 3 aspectos descritos para que
haya seguridad. Dependiendo del entorno en el que trabaje un sistema, a sus
responsables les interesara dar prioridad a un cierto aspecto de la seguridad.
Junto a estos 3 conceptos fundamentales se suele estudiar conjuntamente la
autenticación y el no repudio. Suele referirse al grupo de estas
características como CIDAN, nombre sacado de la inicial de cada característica.
Los diferentes servicios de
seguridad dependen unos de otros jerárquicamente, así si no existe el primero
no puede aplicarse el siguiente.
Disponibilidad: Se
trata de la capacidad de un servicio, de unos datos o de un sistema a ser
accesible y utilizable por los usuarios o procesos autorizados cuando lo
requieran. También se refiere a la capacidad de que la información pueda ser
recuperada en el momento que se necesite.
Confidencialidad: Se
trata de la cualidad que debe poseer un documento o archivo para que éste solo
se entienda de manera comprensible o sea leído por la persona o sistema que
esté autorizado. Un ejemplo de control de la confidencialidad sería el uso
cifrado de clave simétrica en el intercambio de mensajes.
Integridad: Es
la cualidad que posee un documento o archivo que no ha sido alterado y que además
permite comprobar que no se ha producido manipulación alguna en el documento
original.
Alta disponibilidad (Hight
Availability): son sistemas que están disponibles las 24 horas al día, 7 días a
la semana, 365 días al año.
La disponibilidad se
presenta en niveles:
Base: Se produce paradas
previstas y imprevistas.
Alta: Incluyen tecnologías
para disminuir el número y la duración de interrupciones imprevistas aunque
siempre existe alguna interrupción imprevista.
Operaciones continuas: Utilizan
tecnologías para asegurar que no hay interrupciones planificadas.
Sistemas de disponibilidad
continua: Se incluyen tecnologías para asegurarse que no habrá paradas
imprevistas ni previstas.
Sistemas de tolerancia al
desastre: requieren de sistemas alejados entre sí para asumir el control en una
interrupción provocada por un desastre.
Autenticación: Es la
situación en la cual se puede verificar que un documento ha sido elaborado o
pertenece a quien el documento dice. La autenticación de los sistemas
informático se realizan habitualmente mediante nombre y contraseña.
No repudio: El no repudio es un servicio de seguridad estrechamente
relacionado con la autenticación y que permite probar la participación de las
partes en una comunicación.
Existen
2 posibilidades:
No repudio en origen: el
emisor no puede negar el envío porque el destinatario tiene pruebas del mismo
el receptor recibe una prueba infalsificable del envío.
No repudio de destino: el
receptor no puede negar que recibió el mensaje porque el emisor tiene pruebas
de la recepción.
Si la autenticidad prueba
quien es el autor y cual es su destinatario, el no repudio prueba que el autor
envió la comunicación (en origen) y que el destinatario la recibió (en
destino).
1.3.
Elementos vulnerables en un S.I.: Hw,Sw, Datos.
Seguridad es un concepto
asociado a la certeza, falta de riesgo o contingencia conviene aclarar que no
siendo posible la certeza absoluta el elemento de riesgo está siempre presente
independientemente de las medidas que tomemos por lo que debemos hablar de
niveles de seguridad, la seguridad absoluta no es posible y en adelante
entenderemos que la seguridad informática es un conjunto de técnicas
encaminadas a obtener niveles altos de seguridad, la seguridad es un problema
integral, los problemas de seguridad informática no pueden ser tratados
aisladamente ya que la seguridad de todo el sistema es igual a su punto más
débil. El uso de sofisticados algoritmos y métodos es inútil si no garantizamos
la confidencialidad de las estaciones de trabajo, por otra parte, existe algo
que los hackers llaman ingeniería asociada que consiste simplemente en
conseguir mediante un engaño que los usuarios autorizados revelen sus passwords
(contraseña), por lo tanto la educación de los usuarios es fundamental para que
la tecnología de seguridad pueda funcionar.
Los 3 elementos principales
a proteger en cualquier sistema informático son el software, el hardware y los
datos. Por hardware entendemos el conjunto de todos los elementos físicos de un
sistema informático como CPU, terminales, cableados, medios de almacenamiento
secundarios, tarjeta de red, etc... Por softweare entendemos el conjunto de
programas lógicos que hacen funcionar el hardware tanto sistemas operativos
como aplicaciones y por datos el conjunto de información lógica que 3 Amenazas
Física maneja el software y el hardware como por ejemplo paquetes que circulan
por un cable de red o entradas de una base de datos.
Habitualmente los datos
constituyen los 3 principales elementos a escoger ya que es el más amenazado y
seguramente el más difícil de recuperar. También tenemos que ser conscientes de
que las medidas de seguridad que deberán establecerse comprenden el hardware el
sistema operativo, las comunicaciones, medidas de seguridad física, controles
organizativos y legales.
1.4
Las amenazas.
Las amenazas de un sistema
informático pueden provenir desde un hacker remoto que entra en nuestro sistema
desde un troyano, pasando por un programa descargando de forma gratuita que nos
ayuda a gestionar nuestras fotos pero que supone una puerta trasera a nuestro
sistema permitiendo la entrada a espías hasta la entrada no deseada al sistema
mediante una contraseña de bajo nivel de seguridad; se pueden clasificar por
tanto en amenazas provocadas por personas, lógicas y físicas. A continuación se
presenta a una relación de los elementos que potencialmente pueden amenazar a
nuestro sistema. La primera son las personas, la mayoría de los ataques a
nuestro sistema van a provenir de forma intencionada o intencionada de
personas y pueden causarnos enormes pérdidas. Aquí se describen brevemente los
diferentes tipos de personas que pueden constituir un riesgo para nuestros
sistemas:
1
Personas:
Personal (se pasa por alto
el hecho de la persona de la organización incluso a la persona ajeno a la
estructura informática, puede comprometer la seguridad de los equipos)
Ex-empleados (generalmente
se trata de personas descontentas con la organización que pueden aprovechar
debilidades de un sistema del que conocen perfectamente, pueden insertar
troyanos, bombas lógicas, virus o simplemente conectarse al sistema como si aún
trabajaran en la organización).
Curiosos (son los atacantes
juntos con los crakers los que más se dan en un sistema)
Hackers (una persona que
intenta tener acceso no autorizado a los recursos de la red con intención
maliciosa aunque no siempre tiende a ser esa su finalidad)
Crackers(es un término más
preciso para describir una persona que intenta obtener acceso no autorizado a
los recursos de la red con intención maliciosa)
Intrusos remunerados (se
trata de personas con gran experiencia en problemas de seguridad y un amplio
conocimiento del sistema que son pagados por una tercera parte generalmente
para robar secretos o simplemente para dañar la imagen de la organización)
2
Amenazas lógicas:
Sofware incorrupto (a los
errores de programación se les llama Bugs y a los programas para aprovechar uno
de estos fallos se les llama Exploits.)
Herramientas de seguridad (cualquier
herramienta de seguridad representa un arma de doble filo de la misma forma que
un administrador las utiliza para detectar y solucionar fallos en sus sistemas
o la subred completa un intruso las puede utilizar para detectar esos mismos
fallos y aprovecharlos para atacar los equipos, herramientas como NESUS,SAINT o
SATAN pasa de ser útiles a peligrosas cuando la utilizan Crakers.)
Puertas traseras (durante el
desarrollo de aplicaciones grandes o sistemas operativos es habitual que entre
los programadores insertar atajos en los sistemas habituales de autenticación
del programa o núcleo de sistema que se está diseñando.) Son parte de código de
ciertos programas que permanecen sin hacer ninguna función hasta que son
activadas en ese punto la función que realizan no es la original del programa
si no una acción perjudicial.)
Canales cubiertos (son
canales de comunicación que permiten a un proceso trasferir información de
forma que viole la política de seguridad del sistema.)
Virus (un virus es una
secuencia de código que se inserta en un fichero ejecutable denominado huésped
de forma que cuando el archivo se ejecuta el virus también lo hace insertándose
a sí mismo en otros programas.)
Gusanos(es un programa capaz
de ejecutarse y propagarse por sí mismo a través de redes en ocasiones portando
virus o aprovechando bugs de los sistemas a los que se conecta para dañarlos a
ser difíciles de programar su número no es muy elevado pero el daño que causa
es muy grave.)
Caballos de Troya (son
instrucciones escondidas en un programa de forma que este parezca realizar las
tareas que un usuario espera del pero que realmente ejecuta funciones
ocultas.), Programas conejo o bacterias (bajo este nombre se conoce a este
programa que no hace nada útil si no que simplemente se delimitan a
reproducirse hasta que el número de copias acaba con los recursos del sistema
produciendo una negación del servicio.
3
Amenazas Físicas: Robos, sabotajes, destrucción de sistemas.
Suministro eléctrico. Condiciones atmosféricas. Catástrofes naturales.
1.5
Formas de protección de nuestro sistema:
Para proteger nuestros
sistemas hemos de realizar una análisis de las amenazas potenciales, las pérdidas
que podrían generar y la probabilidad de si ocurrencia a partir de este
análisis hemos de diseñar una política de seguridad que defina
responsabilidades y reglas a seguir para evitar tales amenazas o minimizar sus
efectos en caso de que se produzcan, a esto se le llama mecanismo de seguridad,
son la herramienta básica para garantizar la protección de los sistemas o la
red. Estos mecanismos se pueden clasificar en activas o pasivas.
Activas evitan daños en los
sistemas informáticos mediante empleo de contraseñas adecuadas en el acceso a
sistemas y aplicaciones, encriptación de los datos en las comunicaciones,
filtrado de conexiones en redes y el uso de software específico en seguridad
informática.
Pasiva minimizan el impacto
y los efectos causados por accidentes mediante uso de hardware adecuado,
protección física, eléctrica y ambiental, realización de copias de seguridad.
sábado, 5 de septiembre de 2015
Arquitectura de computadoras
La
arquitectura de computadoras es el diseño conceptual y la estructura
operacional fundamental de un sistema de computadoras. Es decir, es un modelo y
una descripción funcional de los requerimientos y las implementaciones de diseño
para varias partes de una computadora, con especial interés en la forma en que
la unidad central de proceso (CPU) trabaja internamente y accede a las
direcciones de memoria.
También
suele definirse como la forma de seleccionar e interconectar componentes de
hardware, para crear computadoras según los requerimientos de funcionalidad,
rendimiento y costo.
La
computadora recibe y envía la información a través de los periféricos, por
medio de los canales. La CPU es la encargada de procesar la información que le
llega a la computadora. El intercambio de información se tiene que hacer con
los periféricos y la CPU. Puede considerarse que todas aquellas unidades de un
sistema, exceptuando la CPU, se denomina periférico, por lo que la computadora
tiene dos partes bien definidas, que son:
La
CPU (encargada de ejecutar programas y que también se considera compuesta por
la memoria principal, la unidad aritmético lógica y la unidad de control), y
Los
periféricos (que pueden ser de entrada, salida, entrada/salida, almacenamiento
y comunicaciones).
jueves, 27 de agosto de 2015
¿Qué
es Computación?
Computación es sinónimo de
informática. Como tal, se refiere a la tecnología desarrollada para el
tratamiento automático de la información mediante el uso computadoras u
ordenadores.
En este sentido, la
computación es también un área de conocimiento constituida por disciplinas
relativas a las ciencias y la tecnología, para el estudio, desde el punto de
vista teórico y práctico, de los fundamentos del procesamiento automático de
datos, y su desarrollo, implementación y aplicación en sistemas informáticos.
La palabra computación
proviene del latín computatĭo, computatiōnis, que deriva del verbo computāre,
cuyo significado es enumerar cantidades. Computación, en este sentido,
designa la acción y efecto de computar, realizar una cuenta, un cálculo
matemático. De allí que antiguamente computación fuese un término usado para
referirse a los cálculos realizados por una persona con un instrumento
expresamente utilizado para tal fin (como el ábaco, por ejemplo) o sin él.
Glosario
Informática: Es una ciencia que estudia métodos, técnicas, procesos, con el fin de
almacenar, procesar y transmitir información
y datos en formato digital.
Ábaco: Es un
dispositivo que sirve para efectuar operaciones aritméticas sencillas
(sumas, restas y multiplicaciones).
Automático: Se aplica al mecanismo que funciona por sí solo o que
realiza, total o parcialmente, su proceso sin ayuda de una persona.
Ver Vídeo HD
Suscribirse a:
Comentarios (Atom)











