jueves, 22 de abril de 2010

red de computadoras

HISTORIA DE LAS REDES DE COMPUTADORAS

La historia se puede remontar a 1957 cuando los Estados Unidos crearon la Advaced Research Projects Agency ( ARPA), como organismo afiliado al departamento de defensa para impulsar el desarrollo tecnológico. Posteriormente a la creación del ARPA, Leonard Kleinrock, un investigador del MIT escribía el primer libro sobre tecnologías basadas en la transmisión por un mismo cable de más de una comunicación. En 1965, la ARPA patrocino un programa que trataba de analizar las redes de comunicación usando computadoras. Mediante este programa, la máquina TX-2 en el laboratorio Licoln del MIT y la AN/FSQ-32 del System Development Corporation de Santa Mónica en California, se enlazaron directamente mediante una línea delicada de 1200 bits por segundo. En 1967, La ARPA convoca una reunión en Ann Arbor (Michigan), donde se discuten por primera vez aspectos sobre la futura ARPANET. En 1968 la ARPA no espera más y llama a empresas y universidades para que propusieran diseños, con el objetivo de construir la futura red. La universidad de California gana la propuesta para el diseño del centro de gestión de red y la empresa BBN ( Bolt Beraneck and Newman Inc.) El concurso de adjudicación para el desarrollo de la tecnología de conmutación de paquetes mediante la implementación de la Interfaz Message Processors (IMP) En 1969, es un año clave para las redes de computadoras, ya que se construye la primera red de computadoras de la historia. Denominada ARPANET, estaba compuesta por cuatro nodos situados en UCLA (Universidad de California en los Angeles), SRI (Stanford Research Institute), UCBS (Universidad de California de Santa Bárbara, Los Angeles) y la Universidad de UTA. La primera comunicación entre dos computadoras se produce entre UCLA y Stanford el 20 de octubre de 1969. El autor de este envío fue Charles Kline (UCLA) En ese mismo año, La Universidad de Michigan crearía una red basada en conmutación de paquetes, con un protocolo llamado X.25, la misión de esta red era la de servir de guía de comunicación a los profesores y alumnos de dicha universidad. En ese mismo año se empiezan a editar los primeros RFC ( Petición de comentarios) Los RFC son los documentos que normalizan el funcionamiento de las redes de computadoras basadas en TCP/IP y sus protocolos asociados. En 1970 la ARPANET comienza a utilizar para sus comunicaciones un protocolo Host-to-host. Este protocolo se denominaba NCP y es el predecesor del actual TCP/IP que se utiliza en toda la Internet. En ese mismo año, Norman Abramson desarrolla la ALOHANET que era la primera red de conmutación de paquetes vía radio y se uniría a la ARPANET en 1972. Ya en 1971 la ARPANET estaba compuesta por 15 nodos y 23 maquinas que se unían mediante conmutación de paquetes. En ese mismo año Ray Tomlinson realiza un programa de e-mail para distribuir mensajes a usuarios concretos a través de ARPANET. En 1972 se elige el popular @ como tecla de puntuación para la separación del nombre del usuario y de la máquina donde estaba dicho usuario. Se realiza la primera demostración pública de la ARPANET con 40 computadoras. En esa misma demostración se realiza el primer chat. En 1973 se produce la primera conexión internacional de la ARPANET. Dicha conexión se realiza con el colegio universitario de Londres (Inglaterra) En ese mismo año Bob Metcalfe expone sus primeras ideas para la implementación del protocolo Ethernet que es uno de los protocolos màs importantes que se utiliza en las redes locales. A mediados de ese año se edita el RFC454 con especificaciones para la transferencia de archivos, a la vez que la universidad de Stanford comienza a emitir noticias a través de la ARPANET de manera permanente. En ese momento la ARPANET contaba ya con 2000 usuarios y el 75% de su trafico lo generaba el intercambio de correo electrónico. En 1974 Cerf y Kahn publican su articulo, un protocolo para interconexión de redes de paquetes, que especificaba con detalle el diseño del protocolo de control de transmisión (TCP) En 1975, Se prueban los primeros enlaces vía satélite cruzando dos océanos ( desde Hawai a Inglaterra) con las primeras pruebas de TCP de la mano de Stanford, UCLA y UCL. En ese mismo año se distribuyen las primera versiones del programa UUCP (Unís-to-Unix CoPy) del sistema operativo UNIX por parte de AT&T. La parada generalizada de la ARPNET el 27 de octubre de 1980 da los primeros avisos sobre los peligros de la misma. Ese mismo año se crean redes particulares como la CSNET que proporciona servicios de red a científicos sin acceso a la ARPANET. En 1982 es el año en que la DCA y la ARPA nombran a TCP e IP como el conjunto de protocolos TCP/IP de comunicación a través de la ARPANET. El 1 de enero de 1983 se abandona la etapa de transición de NCP a TCP/IP pasando este ultimo a ser el único protocolo de la ARPANET. Se comienza a unir redes y países ese mismo año como la CSNET, la MINET europea y se crearòn nuevas redes como la EARN. En 1985 se establecen responsabilidades para el control de los nombres de dominio y así el ISI (Información Sciences Institute) asume la responsabilidad de ser la raíz para la resolución de los nombres de dominio. El 15 de marzo se produce el primer registro de nombre de dominio (symbolics.com) a los que seguirían cmu.edu, purdue.edu, rice.edu, ucla.edu y .uk CLASIFICACIÓN DE LAS REDES:LAN (Local Area Network): Redes de Área LocalEs un sistema de comunicación entre computadoras que permite compartir información, con la característica de que la distancia entre las computadoras debe ser pequeña. Estas redes son usadas para la interconexión de computadores personales y estaciones de trabajo. Se caracterizan por: tamaño restringido, tecnología de transmisión (por lo general broadcast), alta velocidad y topología.Son redes con velocidades entre 10 y 100 Mbps, tiene baja latencia y baja tasa de errores. Cuando se utiliza un medio compartido es necesario un mecanismo de arbitraje para resolver conflictos.Dentro de este tipo de red podemos nombrar a INTRANET, una red privada que utiliza herramientas tipo internet , pero disponible solamente dentro de la organización.Ej.: IEEE 802.3 (Ethernet), IEEE 802.4 (Token Bus), IEEE 802.5 (Token Ring)MAN (Metropolitan Area Network): Redes de Área MetropolitanaEs una versión de mayor tamaño de la red local. Puede ser pública o privada. Una MAN puede soportar tanto voz como datos. Una MAN tiene uno o dos cables y no tiene elementos de intercambio de paquetes o conmutadores, lo cual simplifica bastante el diseño. La razón principal para distinguirla de otro tipo de redes, es que para las MAN's se ha adoptado un estándar llamado DQDB (Distributed Queue Dual Bus) o IEEE 802.6. Utiliza medios de difusión al igual que las Redes de Área Local.WAN (Wide Area Network): Redes de Amplia CoberturaSon redes que cubren una amplia región geográfica, a menudo un país o un continente. Este tipo de redes contiene máquinas que ejecutan programas de usuario llamadas hosts o sistemas finales (end system). Los sistemas finales están conectados a una subred de comunicaciones. La función de la subred es transportar los mensajes de un host a otro.En la mayoría de las redes de amplia cobertura se pueden distinguir dos componentes: Las líneas de transmisión y los elementos de intercambio (Conmutación). Las líneas de transmisión se conocen como circuitos, canales o truncales. Los elementos de intercambio son computadores especializados utilizados para conectar dos o más líneas de transmisión.Las redes de área local son diseñadas de tal forma que tienen topologías simétricas, mientras que las redes de amplia cobertura tienen topología irregular. Otra forma de lograr una red de amplia cobertura es a través de satélite o sistemas de radio.Ej. : X.25, RTC, ISDN, etc.RTC La Red Telefónica Conmutada (RTC) —también llamada Red Telefónica Básica (RTB)— es la red original y habitual (analógica). Por ella circula habitualmente las vibraciones de la voz, las cuales son traducidas en impulsos eléctricos que se transmiten a través de dos hilos de cobre. A este tipo de comunicación se denomina analógica. La señal del ordenador, que es digital, se convierte en analógica a través del módem y se transmite por la línea telefónica. Es la red de menor velocidad y calidad.La conexión se establece mediante una llamada telefónica al número que le asigne su proveedor de internet. Este proceso tiene una duración mínima de 20 segundos. Puesto que este tiempo es largo, se recomienda que la programación de desconexión automática no sea inferior a 2 minutos. Su coste es de una llamada local, aunque también hay números especiales con tarifa propia.Para acceder a la Red sólo necesitaremos una línea de teléfono y un módem, ya sea interno o externo. La conexión en la actualidad tiene una velocidad de 56 kbits por segundo y se realiza directamente desde un PC o en los centros escolares a través de router o proxy. RDSI• La Red Digital de Servicios Integrados (RDSI) envía la información codificada digitalmente, por ello necesita un adaptador de red, módem o tarjeta RDSI que adecúa la velocidad entre el PC y la línea. Para disponer de RDSI hay que hablar con un operador de telecomunicaciones para que instale esta conexión especial que, lógicamente, es más cara pero que permite una velocidad de conexión digital a 64 kbit/s en ambos sentidos.• El aspecto de una tarjeta interna RDSI es muy parecido a un módem interno para RTC.• La RDSI integra multitud de servicios, tanto transmisión de voz, como de datos, en un único acceso de usuario que permite la comunicación digital entre los terminales conectados a ella (teléfono, fax, ordenador, etc.)• Sus principales características son:o Conectividad digital punto a punto.o Conmutación de circuitos a 64 kbit/s.o Uso de vías separadas para la señalización y para la transferencia de información (canal adicional a los canales de datos).• La conexión RDSI divide la línea telefónica en tres canales: dos B o portadores, por los que circula la información a la velocidad de 64 kbps, y un canal D, de 16 kbps, que sirve para gestionar la conexión. Se pueden utilizar los dos canales B de manera independiente (es posible hablar por teléfono por uno de ellos y navegar por Internet simultáneamente), o bien utilizarlos de manera conjunta, lo que proporciona una velocidad de transmisión de 128 kbps. Así pues, una conexión que utilice los dos canales (p.e. videoconferencia) supondrá la realización de dos llamadas telefónicas. ADSL• ADSL (Asymmetric Digital Subscriber Line o Línea de Abonado Digital Asimétrica) es una tecnología que, basada en el par de cobre de la línea telefónica normal, la convierte en una línea de alta velocidad. Permite transmitir simultáneamente voz y datos a través de la misma línea telefónica.• En el servicio ADSL el envío y recepción de los datos se establece desde el ordenador del usuario a través de un módem ADSL. Estos datos pasan por un filtro (splitter), que permite la utilización simultánea del servicio telefónico básico (RTC) y del servicio ADSL. Es decir, el usuario puede hablar por teléfono a la vez que está navegando por Internet, para ello se establecen tres canales independientes sobre la línea telefónica estándar: o o Dos canales de alta velocidad (uno de recepción de datos y otro de envío de datos). o Un tercer canal para la comunicación normal de voz (servicio telefónico básico).• Los dos canales de datos son asimétricos, es decir, no tienen la misma velocidad de transmisión de datos. El canal de recepción de datos tiene mayor velocidad que el canal de envío de datos.• Esta asimetría, característica de ADSL, permite alcanzar mayores velocidades en el sentido red -> usuario, lo cual se adapta perfectamente a los servicios de acceso a información en los que normalmente, el volumen de información recibido es mucho mayor que el enviado.• ADSL permite velocidades de hasta 8 Mbps en el sentido red->usuario y de hasta 1 Mbps en el sentido usuario->red. Actualmente, en España estas velocidades son de hasta 2 Mbps en el sentido red->usuario y de 300 Kbps en el sentido usuario->red. • La velocidad de transmisión también depende de la distancia del módem a la centralita, de forma que si la distancia es mayor de 3 Kilómetros se pierde parte de la calidad y la tasa de transferencia empieza a bajar.Un esquema de conexión ADSL podría ser:Si quiere información sobre la cobertura y despliegue de medios ADSL en la red de Telefónica de España, puede encontrarla en la siguiente dirección:Centrales Locales de ADSL URL: http://www.mityc.es/setsi/adsl/index.htmCable• Normalmente se utiliza el cable coaxial que también es capaz de conseguir tasas elevadas de transmisión pero utilizando una tecnología completamente distinta. En lugar de establecer una conexión directa, o punto a punto, con el proveedor de acceso, se utilizan conexiones multipunto, en las cuales muchos usuarios comparten el mismo cable. • Las principales consecuencias del uso de esta tecnología son:o Cada nodo (punto de conexión a la Red) puede dar servicio a entre 500 y 2000 usuarios. o Para conseguir una calidad óptima de conexión la distancia entre el nodo y el usuario no puede superar los 500 metros. o No se pueden utilizar los cables de las líneas telefónicas tradicionales para realizar la conexión, siendo necesario que el cable coaxial alcance físicamente el lugar desde el que se conecta el usuario. o La conexión es compartida, por lo que a medida que aumenta el número de usuarios conectados al mismo nodo, se reduce la tasa de transferencia de cada uno de ellos.• Esta tecnología puede proporcionar una tasa de 30 Mbps de bajada como máximo, pero los módems normalmente están fabricados con una capacidad de bajada de 10 Mbps y 2 Mbps de subida. De cualquier forma, los operadores de cable normalmente limitan las tasas máximas para cada usuario a niveles muy inferiores a estos, sobre todo en la dirección de subida. Vía satélite• En los últimos años, cada vez más compañías están empleando este sistema de transmisión para distribuir contenidos de Internet o transferir ficheros entre distintas sucursales. De esta manera, se puede aliviar la congestión existente en las redes terrestres tradicionales.• El sistema de conexión que generalmente se emplea es un híbrido de satélite y teléfono. Hay que tener instalada una antena parabólica digital, un acceso telefónico a Internet (utilizando un módem RTC, RDSI, ADSL o por cable), una tarjeta receptora para PC, un software específico y una suscripción a un proveedor de satélite. • El cibernauta envía sus mensajes de correo electrónico y la petición de las páginas Web, que consume muy poco ancho de banda, mediante un módem tradicional, pero la recepción se produce por una parabólica, ya sean programas informáticos, vídeos o cualquier otro material que ocupe muchos megas. La velocidad de descarga a través del satélite puede situarse en casos óptimos en torno a 400 Kbps. Redes Inalámbricas• Las redes inalámbricas o wireless son una tecnología normalizada por el IEEE que permite montar redes locales sin emplear ningún tipo de cableado, utilizando infrarrojos u ondas de radio a frecuencias desnormalizadas (de libre utilización). • Están compuestas por dos elementos: - Punto de acceso (AP) o “transceiver”: es la estación base que crea un área de cobertura donde los usuarios se pueden conectar. El AP cuenta con una o dos antenas y con una o varias puertas Ethernet.- Dispositivos clientes: son elementos que cuentan con tarjeta de red inalámbrica. Estos proporcionan un interfaz entre el sistema operativo de red del cliente y las ondas, a través de una antena.• El usuario puede configurar el canal (se suelen utilizar las bandas de 2,4 Ghz y 5Ghz) con el que se comunica con el punto de acceso por lo que podría cambiarlo en caso de interferencias. En España se nos impide transmitir en la totalidad de la banda 2,4 Ghz debido a que parte de esta banda está destinada a usos militares. • La velocidad con el punto de acceso disminuye con la distancia. • Los sistemas inalámbricos de banda ancha se conocen cómo BWS (Broadband Wireless Systems) y uno de los más atractivos, son los sistemas LMDS. LMDS • El LMDS (Local Multipoint Distribution System) es un sistema de comunicación de punto a multipunto que utiliza ondas radioelétricas a altas frecuencias, en torno a 28 ó 40 GHz. Las señales que se transmiten pueden consistir en voz, datos, internet y vídeo. • Este sistema utiliza como medio de transmisión el aire para enlazar la red troncal de telecomunicaciones con el abonado. En este sentido, se configura un nuevo bucle de abonado, con gran ancho de banda, distinto al tradicional par de hilos de cobre que conecta cada terminal doméstico con la centralita más próxima. • Las bandas de frecuencias utilizadas ocupan un rango en torno a 2 Ghz, para las cuales la atenuación por agentes atmosféricos es mínima. Debido a las altas frecuencias y al amplio margen de operación, es posible conseguir un gran ancho de banda de comunicaciones, con velocidades de acceso que pueden alcanzar los 8 Mbps. El sistema opera en el espacio local mediante las estaciones base y las antenas receptoras usuarias, de forma bidireccional. Se necesita que haya visibilidad directa desde la estación base hasta el abonado, por lo cual pueden utilizarse repetidores si el usuario está ubicado en zonas sin señal. • En España, el servicio se ofrece en las frecueNcias de 3,5 ó 26 GHz. El sistema de 26 GHz ofrece mayor capacidad de transmisión, con un alcance de hasta 5 Km. En cambio, el sistema de 3,5 GHz puede conseguir un alcance mayor, de hasta 10 Km., aunque tiene menor capacidad, y puede ofrecer velocidades de hasta 2 Mbps. Este segundo sistema es, por tanto, más económico que el primero. • El LMDS ofrece las mismas posibilidades en cuanto a servicios, velocidad y calidad que el cable de fibra óptica, coaxial o el satélite. La ventaja principal respecto al cable consiste en que puede ofrecer servicio en zonas donde el cable nunca llegaría de forma rentable. Respecto al satélite, ofrece la ventaja de solucionar el problema de la gran potencia de emisión que se dispersa innecesariamente en cubrir amplias extensiones geográficas. Con LMDS la inversión se rentabiliza de manera muy rápida respecto a los sistemas anteriores. Además, los costes de reparación y mantenimiento de la red son bajos, ya que al ser la comunicación por el aire, la red física como tal no existe. Por tanto, este sistema se presenta como un serio competidor para los sistemas de banda ancha.

Virus Informaticos

Virus informaticos.

Virus Informatico Conficker 21ene09

miércoles, 21 de abril de 2010

Virus Informatico Conficker 21ene09

EJEMPLOS DE ANTIVIRUS:VENTAJAS Y DESVENTAJAS


Sistema antivirusVentajasDesventajasNortonEs el segundo más vendido en el mundo.Mejor porcentaje de detección.Interfaz sencilla.Buena integración con el correo y los navegadores de Internet.Licencia del producto de por vida.Al instalarse queda con todas las opciones habilitadas.Respuesta rápida ante nuevos virus.Algo débil en la detección de troyanos y backdoors.Problemas con la instalación en sistemas infectados.McAfeeEs el primero en ventas en el mundo.Alta detección de virus con un 94 % de la Wildlist.Buena integración con el correo e Internet.Rápida respuesta ante nuevos viruFalta de sencillez en la interfaz, que puede confundir al usuario.Presenta algunos fallos en la detección en correoSophosEspecializado en entornos corporativos.Soporta varias plataformasInterfaz sencilla.Indice muy bajo de detección.Es el único sistema que no es capaz de desinfectar ejecutables.Interfaz de configuración compleja.Funciones escasas de soporte por correo.Norman AVSe destaca en la instalación sobre un sistema infectado.Detección aceptable (93 %).Al presentar una gran cantidad de productos especializados permite un gran control cuando se utiliza por expertos.Detectó un 15 % de falsos positivos.Interfaz de configuración extensa y compleja.Falta de integración al correo.PandaAlta detección de virus, (segundo después de Norton).Módulos específicos para correo e Internet con buena detección.Menor porcentaje de detección de falsos positivos.Problemas con Outlook Express.Al instalarse, la opción de análisis heurístico queda deshabilitada y debe ser el usuario quien la habilite.F-SecureAlta detección (> 95 %).Util para redes corporativas, porque permite una distribución y gestión centralizada.Interfaz muy simple, poco intuitiva.No se destaca en diferentes plataformas.No posee módulo específico para Internet.El usuario debe tomar una decisión en cada virus encontrado.El costo del producto es muy elevado y dobla el costo de casi todos los demás sistemas.PC-CillinAlta detección y bajo por ciento de falsos positivos.Existen diferentes versiones para distintos entornos (multiplataforma).Buena integración con el correo.Buenos resultados cuando se combina UNIX y Windows 2000 dentro de una empresa.Problemas en su instalación en un sistema infectado.Problemas en el módulo de análisis de Internet.AVP (Karpesky)Interfaz sencilla y práctica.Alta detección de virus (más del 95 %).Se destaca en la instalación sobre sistemas infectados.Es altamente apreciado por la potencia de su motor de detección y desinfección.Excelente nivel de respuesta y rapidez en la solución ante nuevos virus.Ausencia de un módulo específico para analizar las vías de entrada desde Internet.Conflictos con Outlook Express.

FORMAS DE ERRADICAR


Primer paso: Diagnostico del PC.Si sospechas o este completamente seguro de que un virus ha sido alojado en tu PC, debido a que has notado algunos síntomas en el como:- Se reinicia continuamente- El
sistema operativo demora mucho en alzar- Si el disco duro reporta falla- Aparecen extensiones desconocidasEl primer paso después de detectado el virus, es revisar el antivirus que cuentas actualmente instalado en tu PC, sino lo tienes es recomendable instales uno (es mejor tener solamente un antivirus instalado ya que al tener mas de uno podría causar conflictos en tu PC).Algunos nombres de los antivirus más conocidos son: Kaspersky, Avira Premium, BitDefender,ESET NOD32,Panda,Zone alarm.Segundo paso: Eliminar Virus.El segundo paso para eliminar el virus es desactivar el restaurador de sistemas por lo que existen algunos virus que son capaces de restaurarse inmediatamente después de cada reinicio de la PC, para esto deben dar clic derecho a las propiedades de MI PC y marcar la casilla de desactivar restaurar sistema o desactivar restaurar sistema en todas la unidades. Después de haber seguido los pasos anteriores se deberá reiniciar la PC pero ahora en modo a prueba de fallos (Apretando la tecla superior F8 al momento que esta alzando el sistema operativo) después de esto debemos pasar el antivirus.Tercer paso: Verificando la eliminación del virus. Si realizó todos los pasos anteriores y su PC ya no presenta ningún síntoma de que aún se encuentre infectada, de ahora en adelante lo más recomendable es que diariamente pase el antivirus a su PC para así reducir el riesgo de que otro virus infecte a su PC.Además si desea limpiar continuamente su PC, un buen programa para ellos es el Ccleaner y no olvidarse sobre todo de tener actualizado su antivirus.El seguir los pasos anteriormente mencionados hará que su PC se encuentre libre de virus o al menos este preparada por si uno de estos la infecta.

VIAS DE ACCESO





Las vías de acceso de un virus a nuestro equipo informáticoLa determinación inicial con respecto a la problemática de los virus se basa en conocer los medios a través de los que éstos pueden atacar o introducirse en nuestro equipo informático, este hecho nos permitirá mantener nuestro ordenador libre de infecciones. Las vías de acceso, más comunes, son las siguientes:

Unidades de disco extraíbles- Son los medios de almacenamiento que acogen la información y son susceptibles de ser utilizados en equipos informáticos diferentes, como ejemplo baste con señalar los disquetes, cd-roms y unidades zip.
Redes de ordenadores- Una red es un conjunto o sistema de ordenadores conectados con el objeto de facilitar el trabajo de varios usuarios, la existencia de conexiones implica o conlleva la infección si la información transferida, desde el ordenador emisor al receptor, estuviese infectada.Internet. Red de Redes- El volumen de datos que Internet pone a nuestra disposición, como la recepción de ficheros, publicación noticias, o descargas de archivos, se lleva a cabo mediante la transferencia de información, la cual es la vía para de acceso de los virus

FORMAS DE PREVENCION DE UN VIRUS



Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los denominados activos o pasivos.ActivosAntivirus: son programas que tratan de descubrir las trazas que ha dejado un software malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la contaminación. Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de infección y notificando al usuario de posibles incidencias de seguridad.Filtros de ficheros: consiste en generar filtros de ficheros dañinos si el ordenador está conectado a una red. Estos filtros pueden usarse, por ejemplo, en el sistema de correos o usando técnicas de firewall. En general, este sistema proporciona una seguridad donde no se requiere la intervención del usuario, puede ser muy eficaz, y permitir emplear únicamente recursos de forma más selectiva.PasivosEvitar introducir a tu equipo medios de almacenamiento extraíbles que consideres que pudieran estar infectados con algún virus.No instalar software "pirata".Evitar descargar software de Internet.No abrir mensajes provenientes de una dirección electrónica desconocida.No aceptar e-mails de desconocidos.Generalmente, suelen enviar "fotos" por la web, que dicen llamarse "mifoto.jpg", tienen un ícono cuadrado blanco, con una línea azul en la parte superior. En realidad, no estamos en presencia de una foto, sino de una aplicación Windows (*.exe). Su verdadero nombre es "mifoto.jpg.exe", pero la parte final "*.exe" no la vemos porque Windows tiene deshabilitada (por defecto) la visualización de las extensiones registradas, es por eso que solo vemos "mifoto.jpg" y no "mifoto.jpg.exe". Cuando la intentamos abrir (con doble click) en realidad estamos ejecutando el código de la misma, que corre bajo MS-DOS.

TIPOS DE VIRUS




Todos los virus tiene en comun una caracteristica, y es que crean efectos perniciosos. A continuación te presentamos la clasificacion de los virus informaticos, basada en el daño que causan y efectos que provocan.Caballo de Troya:Es un programa dañino que se oculta en otro programa legítimo, y que produce sus efectos perniciosos al ejecutarse este ultimo. En este caso, no es capaz de infectar otros archivos o soportes, y sólo se ejecuta una vez, aunque es suficiente, en la mayoría de las ocasiones, para causar su efecto destructivo.Gusano o Worm:Es un programa cuya única finalidad es la de ir consumiendo la memoria del sistema, se copia asi mismo sucesiva mente, hasta que desborda la RAM, siendo ésta su única acción maligna.Virus de macros:Un macro es una secuencia de oredenes de teclado y mouse asignadas a una sola tecla, símbolo o comando. Son muy utiles cuando este grupo de instrucciones se necesitan repetidamente. Los virus de macros afectan a archivos y plantillas que los contienen, haciendose pasar por una macro y actuaran hasta que el archivo se abra o utilice.Virus de sobreescritura:Sobreescriben en el interior de los archivos atacados, haciendo que se pierda el contenido de los mismos.Virus de Programa:Comúnmente infectan archivos con extensiones .EXE, .COM, .OVL, .DRV, .BIN, .DLL, y .SYS., los dos primeros son atacados más frecuentemente por que se utilizan mas.Virus de Boot:Son virus que infectan sectores de inicio y booteo (Boot Record) de los diskettes y el sector de arranque maestro (Master Boot Record) de los discos duros; también pueden infectar las tablas de particiones de los discos.Virus Residentes:Se colocan automáticamente en la memoria de la computadora y desde ella esperan la ejecución de algún programa o la utilización de algún archivo.Virus de enlace o directorio:Modifican las direcciones que permiten, a nivel interno, acceder a cada uno de los archivos existentes, y como consecuencia no es posible localizarlos y trabajar con ellos.Virus mutantes o polimórficos:Son virus que mutan, es decir cambian ciertas partes de su código fuente haciendo uso de procesos de encriptación y de la misma tecnología que utilizan los antivirus. Debido a estas mutaciones, cada generación de virus es diferente a la versión anterior, dificultando así su detección y eliminación.Virus falso o Hoax:Los denominados virus falsos en realidad no son virus, sino cadenas de mensajes distribuídas a través del correo electrónico y las redes. Estos mensajes normalmente informan acerca de peligros de infección de virus, los cuales mayormente son falsos y cuyo único objetivo es sobrecargar el flujo de información a través de las redes y el correo electrónico de todo el mundo.Virus Múltiples:Son virus que infectan archivos ejecutables y sectores de booteo simultáneamente, combinando en ellos la acción de los virus de programa y de los virus de sector de arranque.Para obtener informacion de antivirus para eleminar los diferentes tipo de virus presentados anteriormente visita software antivirus

EL ORIGEN DEL VIRUS DE COMPUTADORA:



En 1949, el matemático John von Neumann, planteó la posibilidad teórica de que un programa informático se reprodujera.
Esta teoría se comprobó experimentalmente en la década de 1950 en los Laboratorios Bell, donde se desarrolló un juego llamado Core Wars en el que los jugadores creaban minúsculos programas informáticos que atacaban y borraban el sistema del oponente e intentaban propagarse a través de él.

En 1983 Fred Cohen, acuñó el término de "virus" para describir un programa informático que se reproduce a sí mismo. En 1985 aparecieron los primeros caballos de Troya, disfrazados como un programa de mejora de gráficos llamado EGABTR y un juego llamado NUKE-LA. El viru s llamado Brain apareció en 1986, y en 1987 se había extendido por todo el mundo.

En 1988 aparecieron dos nuevos virus: Stone, el primer virus de sector de arranque inicial, y el gusano de Internet. El virus Dark Avenger, el primer infector rápido, apareció en 1989, seguido por el primer virus polimórfico en 1990. En 1995 se creó el primer virus de lenguaje de macros, WinWord Concept.Se reconoce como antecedente de los virus actuales, un juego creado por programadores de la empresa AT&T, que desarrollaron la primera versión del sistema operativo Unix en los años 60. Para entretenerse, y como parte de sus investigaciones, desarrollaron un juego llamado "Core Wars", que tenía la capacidad de reproducirse cada vez que se ejecutaba. Al mismo tiempo, desarrollaron un programa llamado "Reeper", que destruía las copias hechas por Core Wars.El primer virus destructor y dañino plenamente identificado que infecta muchas PC’s aparece en 1986. Fue creado en la ciudad de Lahore, Paquistán, y se le conoce con el nombre de BRAIN. Sus autores vendían copias pirateadas de programas comerciales como Lotus, Supercalc o Wordstar, por suma bajísimas. Las copias pirateadas llevaban un virus. Fue así, como infectaron mas de 20,000 computadoras. Los códigos del virus Brain fueron alterados en los EE.UU., por otros programadores, dando origen a muchas versiones de ese virus, cada una de ellas peor que la precedente.Es importante señalar que la palabra "Virus" es un vocablo latín y su equivalencia a nuestro lenguaje actual es "veneno"