martes, 10 de julio de 2012

PIRATAS INFORMÁTICOS

La práctica habitual de la copia ilegal de software, tanto en el terreno doméstico como en el ámbito empresarial, ha relegado este término a ciertos personajes con alguna aureola capaces de penetrar en bases de datos de centros clave. Sin embargo, el término alude precisamente a esta práctica no por extendida menos reprobable, que ocasiona cuantiosísimas pérdidas a la industria informática.

SPAM


Se llama spamcorreo basura o mensaje basura a los mensajes no solicitados, no deseados o de remitente no conocido (correo anónimo), habitualmente de tipo publicitario, generalmente enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La acción de enviar dichos mensajes se denomina spamming. La palabra spam proviene de la segunda guerra mundial, cuando los familiares de los soldados en guerra les enviaban comida enlatada, entre estas comidas enlatadas, estaba una carne enlatada llamada spam, que en los Estados Unidos era y sigue siendo muy común.
Aunque se puede hacer spam por distintas vías, la más utilizada entre el público en general es la basada en el correo electrónico. Otras tecnologías de Internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores de búsqueda, redes sociales, páginas web wiki, foros, web logs (blogs), a través de ventanas emergentes y todo tipo de imágenes y textos en la web.
El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes,Windows live ,etc.
También se llama correo no deseado a los virus sueltos en la red y páginas filtradas (casino, sorteos, premios, viajes, drogas, software y pornografía), se activa mediante el ingreso a páginas de comunidades o grupos o acceder a enlaces en diversas páginas o inclusive sin antes acceder a ningun tipo de páginas de publicidad.

VIRUS INFORMATIVOS


Los Virus Informáticos son sencillamente programas maliciosos (malwares) que “infectan” a otros archivos del sistema con la intención de modificarlo o dañarlo. Dicha infección consiste en incrustar su código malicioso en el interior del archivo “víctima” (normalmente un ejecutable) de forma que a partir de ese momento dicho ejecutable pasa a ser portador del virus y por tanto, una nueva fuente de infección.
Su nombre lo adoptan de la similitud que tienen con los virus biológicos que afectan a los humanos, donde los antibióticos en este caso serían los programas Antivirus.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como los del tipo Gusano informático (Worm), son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
.
¿Cuál es el funcionamiento básico de un virus?
alt Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario.
alt El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse.
alt El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables (.exe., .com, .scr, etc) que sean llamados para su ejecución.
alt Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
.
Las principales vías de infección son:
alt Redes Sociales.
alt Sitios webs fraudulentos.
alt Redes P2P (descargas con regalo)
alt Dispositivos USB/CDs/DVDs infectados.
alt Sitios webs legítimos pero infectados.
alt Adjuntos en Correos no solicitados (Spam)
.
¿Cómo eliminar un virus informáticos?
alt Si sospecha haber sido víctima de un virus o malwares en su equipo, le recomendamos seguir nuestra “Guía de detección y eliminación de Malwares 2011”paso a paso y si no consigue solucionarlo, puede solicitarnos ayuda de forma gratuita, directamente en nuestro Foro de InfoSpyware.
.
¿Cómo protegernos de los virus informáticos?
La prevención consiste en un punto vital a la hora de proteger nuestros equipos ante la posible infección de algún tipo de virus y para esto hay tres puntos vitales que son:
alt Un programa Antivirus.
alt Un programa Cortafuegos.
alt Un “poco” de sentido común.

SEGURIDAD EN LA WEB


La seguridad informática, es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta (incluyendo la información contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo de información se conoce como información privilegiada o confidencial.
El concepto de seguridad de la información no debe ser confundido con el de seguridad informática, ya que este último sólo se encarga de la seguridad en el medio informático, pudiendo encontrar información en diferentes medios o formas.

PARTES DE UNA DIRECCIÓN WEB


LAS PARTES DE UNA DIRECCION DE INTERNET SON:
1.-PROTOCOLO (http)
2.- SERVIDOR (ayudaenlaweb.blogspot.com)
3.-NOMBRE DEL SERVIDOR (blogsbot)
4.-DOMINIO DE NIVEL SUPERIOR (com)
5.-SUBDOMINIO (ayudaenlaweb)
6.-PUERTO (80)
7.-DIRECTORIO ( /2007/09/ )
8.- PAGINA ( / partes -de-un-email.html )

COMPOSICIONES DE UNA DIRECCIÓN WEB


Internet no es una red centralizada ni está regida por un solo organismo. Su estructura se parece a una tela de araña en la cual unas redes se conectan con otras.
No obstante hay una serie de organizaciones responsables de la adjudicación de recursos y el desarrollo de los protocolos necesarios para que Internet evolucione.
Por ejemplo:
La Internet Engineering Task Force (IETF) se encarga de redactar los protocolos usados en Internet.
La Corporación de Internet para la Asignación de Nombres y Números (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones IP, etc.
 Las direcciones en Internet
En Internet se emplean varios formatos para identificar máquinas, usuarios o recursos en general.
En Internet se emplean direcciones numéricas para identificar máquinas: las direcciones IP. Se representan por cuatro números, de 0 a 255, separados por puntos. Un servidor puede identificarse, por ejemplo, con la dirección IP 66.230.200.100. Como es más sencillo recordar un nombre, las direcciones se "traducen" a nombres. Los trozos "traducidos" se denominan nombres de dominio. El servicio encargado de la traducción es el DNS e identifica las numeraciones de los usuarios conectados
Para identificar a usuarios de correo electrónico se emplean las direcciones de correo electrónico, que tienen el siguiente formato:
usuario@servidor_de_correo.dominio
Para identificar recursos en Internet, se emplean direcciones URL (Uniform Resource Locator, Localizador Uniforme de Recursos). Una dirección URL tiene la forma:
http://nombre_de_empresa.dominio/abc.htm
Siendo "http://" el protocolo, "nombre_de_empresa.dominio" el dominio (que es trasladado a una
 El flujo de información en Internet
 La arquitectura cliente-servidor
El procedimiento empleado para intercambiar información en Internet sigue el modelo cliente-servidor.
Los servidores son computadoras donde se almacenan datos.
El cliente es la computadora que realiza la petición al servidor para que éste le muestre alguno de los recursos almacenados.
Los paquetes de información
En Internet la información se transmite en pequeños trozos llamados "paquetes". Lo importante es la reconstrucción en el destino del mensaje emitido, no el camino seguido por los paquetes que lo componen.
Si se destruye un nodo de la red, los paquetes encontrarán caminos alternativos. Este procedimiento no es el más eficiente, pero resiste las averías de una parte de la red.

El protocolo TCP (y también el UDP), se encarga de fragmentar el mensaje emitido en paquetes. En el destino, se encarga de reorganizar los paquetes para formar de nuevo el mensaje, y entregarlo a la aplicación correspondiente.
El protocolo IP enruta los paquetes. Esto hace posible que los distintos paquetes que forman un mensaje pueden viajar por caminos diferentes hasta llegar al destino.
La unión de varias redes (ARPANET y otras) en Estados Unidos, en 1983, siguiendo el protocolo TCP/IP, puede ser considerada como el nacimiento de Internet (Interconnected Networks).
Ss
Servicio de nombres
Existe un servicio que se encarga de proporcionar la correspondencia entre una dirección IP y su nombre de dominio, y viceversa. Este servicio es el DNS (Domain Name System, Sistema de Nombres de Dominio).
Cada vez que se inicia una comunicación con un nombre de dominio, el ordenador realiza una petición a su servidor DNS para que le proporcione la IP asociada a ese nombre.
El sistema DNS es jerárquico. Cada subdominio de Internet suele tener su propio servidor DNS, responsable de los nombres bajo su dominio. A su vez, hay un servidor encargado de cada dominio (por ejemplo un nivel nacional (.es)), y hay una serie de servidores raíz, que conocen toda la estructura DNS superior.
Funcionamiento del correo electronico
e
Los primeros mensajes de correo electrónico solo incluían texto ASCII. Luego se crearon las extensiones MIME al protocolo SMTP, para poder enviar mensajes con archivos adjuntos, utilizar otros juegos de caracteres, o p. ej. enviar un mensaje con formato HTML.
El proceso de envío es el siguiente (se indica entre paréntesis el protocolo utilizado en cada paso):
Cuando un usuario envía un correo, el mensaje se dirige hasta el servidor encargado del envío de correo electrónico de su proveedor de Internet (SMTP).
Este servidor lo reenvía al servidor de correo electrónico encargado de la recepción de mensajes del destinatario (SMTP).
El servidor de correo electrónico del destinatario procesa el mensaje y lo deposita en el buzón del destinatario. El mensaje ha llegado.
Este buzón es accesible mediante el servidor de lectura de correos (POP, ó IMAP). Así, cuando el destinatario, posteriormente, solicita sus mensajes, el servidor de correo de lectura se los envía. Ahora, el destinatario puede leerlos.
Todo este proceso (pasos del 1 al 3) se realiza en un período breve. Pocos minutos (o solamente segundos), bastan, en general, para que llegue el mensaje hasta su destino. Factores derivados del tráfico en las redes, filtros antispam y antivirus, y otros, pueden influir en este tiempo.
Nota: Esto no se aplica para cuentas de correo en yahoo, hotmail y otros, pues se procesan como flujo de información dentro de Internet. Esto se aplica cuando se utilizan las cuentas de correo proporcionado por los proveedores de Internet (IPs - en inglés) 
protocolo del correo electronico 
pr
El protocolo SMTP (Simple Mail Transfer Protocol) permite el envío (correo saliente) desde el cliente hacia Internet (el mensaje se transmite, inicialmente, entre servidores de correo).
El protocolo POP (Post Office Protocol) permite recibir mensajes de correo hacia el cliente (se almacenan en el ordenador del destinatario), desde el servidor (correo entrante).
El protocolo IMAP (Internet Message Access Protocol) permite recibir mensajes de correo hacia el cliente (se almacenan en el ordenador del destinatario), desde el servidor, al igual que el protocolo POP (correo entrante), pero IMAP permite que se pueda gestionar el correo de forma más flexible. Así, es posible sincronizar contenidos entre el cliente y el servidor, utilizar diferentes carpetas para clasificar el correo (sincronizadas entre cliente y servidor), realizar búsquedas en el lado del servidor, descargar solamente partes del mensaje, etc...

DEFINICIÓN DE LA WEB

La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en GinebraSuiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.


Historia


Este NeXTcube usado por Berners-Leeen el CERN se convirtió en el primer servidor web.
La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.
En marzo de 1989, Tim Berners Lee, ya como personal de la división DD del CERN, redacta la propuesta, que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales, utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web el 6 de agosto de 1991.

El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroupalt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush.
El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier.
World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento:
  • WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.
  • A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia.
El 30 de abril de 1993, el CERN anunció que la web sería gratuita para todos, sin ningún tipo de honorarios.
ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción del navegador web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. El apoyo para desarrollar Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore en el High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill.Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. La interfaz gráfica de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante.