Mejores Certificaciones de Seguridad Informática en 2012

Actualmente no se puede ocultar la importancia que tiene el conocimiento y las certificaciones de dicho conocimiento para los profesionales que quieren involucrarse en el mundo de la Seguridad Informática. Por experiencia en este campo puedo dar fe de que el estudio y la experiencia que se necesitan para avanzar y escalar posiciones dentro de este mercado, son de un alto nivel.

Imagen tomada de http://www.premier-ks.com/ec-council-certifications.html

Las certificaciones, son de hecho un método muy eficiente que hace visible para el mundo de que somos expertos en algo, o que estamos en camino de serlo. Una persona que tiene certificaciones en sus manos de diferentes productos de Seguridad, o de técnicas o de procedimientos avaluados por las grandes multinacionales expertas en estos temas es un valor agregado de alta importancia para cualquier empresa, institución educativa o Entes Independientes que deseen tener de su lado a estos individuos.

Obviamente, son igualmente importantes para alguien que esté pensando en comenzar su vida profesional por este camino. A la hora de una oportunidad laboral, contar con certificaciones de Seguridad son una ayuda fundamental a la hora de llegar a conseguir el empleo soñado.

Por lo anterior quiero compartir una lista que tiene un compilado de las mejores certificaciones actuales dividas en Certificaciones empresariales, certificaciones de Auditoría, y certificaciones genéricas.

Core Information Security Certifications:

  • Certified Ethical Hacker (EC council approved CEH certifications)
  • CISSP ( Information security certification with higher difficulty level)
  • CWSP (Wireless Security certification)
  • GCWN (GIAC Certified windows security admin)
  • CCSA (Checkpoint firewall certified security admin)
  • Cyber Security Forensic Analyst
  • Certified Hacking Forensic Investigator
  • Security +
  • GIAC GSEC

Information Security Audit Certifications

  • CISA (Certified information security auditor from ISACA)
  • CISM (Certified information security manager from ISACA)
  • ISO 27001 (ISO certification from BSI)

Generic certifications to add value to your InfoSec Career

  • ITIL V3 Foundation for org strategy learning
  • CCNA Security for networking / routing / switching and security
  • MCSE / RHCE to understand the OS environments

Espero este listado sea de su total utilidad. No olviden comentar y si es posible sugerir más certificaciones para complementar estos estudios.

Fuente

Consola Web DEMO de FortiGate y FortiAnalyzer – Fortinet

Fortinet, es uno de los productos de seguridad informática en redes más usados actualmente por las organizaciones y empresas para la administración de la Seguridad de la Información, uno de los activos más vitales en la estructura de cualquier negocio. Fortinet se ha convertido con el tiempo en una plataforma muy robusta, dando un control total sobre distintos tipos de servicios como filtrado web, IPS, Antivirus, una gran herramienta de análisis de Logs en tiempo real e históricos, consolidación de VPN y muchas otras opciones que lo hacen una gran opción para cualquier tipo de organización sin importar su tamaño.

Conocer su funcionamiento y familiarizarse con su administración, es de vital importancia para las personas que se van a hacer cargo de su manejo, el diagnóstico de los problemas que puedan surgir y en general de como funciona la herramienta. Por esta razón, hoy les comparto un excelente sitio web, que simula perfectamente la consola de administración Web del Fortigate, el firewall del Fortinet.

Estando dentro, se puede tener un acceso total a todas las opciones que se ven en una consola real. Se pueden probar varios tipos de Troubleshooting con el fin de aprender a diagnosticar problemas. Se puede incluso ingresar a la consola CLI para ejecutar algunos de los comandos más usados. Actualmente la consola simula un FortiGate 310B con el Firmware 4.0 MR3 Patch 4.

Las opciones del menú disponibles en esta demo son las que se listan a continuación. Cada una administra independientemente los módulos de los que se compone toda la plataforma de seguridad. En cada una de ellas se encuentran creados varios objetos de prueba con el fin de observar y analizar la información.

También les comparto una consola Web DEMO del FortiAnalyzer, el cual es un appliance aparte del fortigate que permite unanálisis forense del sistema que integra logeo, análisis y reporte en la red.   Utilizando un conjunto completo de informes personalizados, los usuarios pueden filtrar y hacer revisión de registros, incluyendo tráfico, eventos, virus, ataques, contenido Web, correo electrónico y datos, minería de datos para determinar su postura de seguridad y asegurar el cumplimiento regulatorio. Así como es de mucha ayuda familiarizarse con la consola del FortiGate, es igual de importante conocer la consola del FortiAnalyzer con el fin de saber donde mirar y analizar las herramientas de logs, filtrados y demás al momento de enfrentarse con un problema real que necesite atención inmediata.

La consola del FortiAnalyzer, es muy similar al FortiGate. Allí se simula actualmente un FortiAnalyzer 800:

Ingreso a las Consolas:

FortiGate –>

Para ingresar a la consola web demo del FortiGate se debe ingresar a la dirección fortigate.com y colocar como credenciales de acceso lo siguiente:

  • User: demo
  • Password: fortigate

FortiAnalyzer –>

Para ingresar a la consola web demo del FortiAnalyzer se debe ingresar a la dirección fortianalyzer.com  y colocar como credenciales de acceso lo siguiente:

  • User: demo
  • Password: fortianalyzer

A manera personal, recomiendo visitar y tratar de ver cada una de las opciones, detallar y analizar bien los items de cada consola con el fin de conocer de manera general y con profundidad las herramientas. Hacer esto, antes de enfrentarse con un problema real, en el que muy seguramente tendrás que entrar presencial o remotamente a este tipo de consolas, te dará una ventaja enorme porque ya será un terreno conocido y en el que se podrá tener un mejor movimiento, y al final, un mejor diagnóstico de la causa del problema. 

Como nota final, debido al gran uso que se les da a estas consolas, en varias ocasiones no son accesibles ya que se agota el número máximo de conexiones simultáneas permitidas. Pero esto se soluciona intentando entrar varios minutos después.

Cualquier duda que se presente sobre el tema, no dudes en dejar un comentario para tratar de ayudar a la menor brevedad posible

Ver el número de licencias usadas por Websense Filtering Service

Uno de los problemas habituales cuando el servicio de filtrado de Websense falla, es debido a que el límite de licencias permitidas o adquiridas por el comprador inicialmente se supera, haciendo que los usuarios que lleguen a solicitar navegación normal a internet salgan sin ningún tipo de restricción y sin ninguna de las políticas que se tengan creadas en el Websense. Es muy importante tener siempre presente el número de licencias existentes y las usadas con el fin de ser una de las cosas básicas a revisar antes de continuar con troubleshooting y pruebas que pueden no dar con el diagnóstico del problema.

Lastimosamente, actualmente no es posible obtener este dato tan fácilmente como se creería. Se debe seguir un procedimiento que, aunque no es complicado, si quita tiempo valioso que es vital cuando se trata de solucionar un problema en el que puede haber una gran afectación del servicio.

Antes de ejecutar el procedimiento, se debe tener en cuenta que el LicenseTracker/SubscriptionTracker (Con el cual se obtiene este dato) no puede tener una licencia de Evaluación. Se debe tener una licencia de producción para que arroje los resultados esperados. Se debe tener también muy en cuenta que este procedimiento se debe ejecutar en el Server donde resida el Filtering Service.

Si se tiene el Filtering Service corriendo sobre un Appliance de la serie V se deben abrir los puertos designados para el troubleshooting haciendo posible la comunicación del servicio con la ConsoleClient. El puerto que se debe estar abierto es el 15869. Para hacerlo, desde el administrador del Appliance ve a la siguiente ruta:

Administration>Toolbox>Technical Support Tools>Troubleshooting Ports. Checkea el Enable troubleshooting ports y presiona el botón Save. Luego de esto se debe seguir el procedimiento que se lista abajo.

Para versiones 6.3, 7.0, 7.1, 7.5 y 7.6 (Windows):

  • Desde el command prompt, estando dentro del directorio de websense /bin, escribe
  • ConsoleCliente <IP del Filtering Service> 15869
    1. Presiona 2 para PrintSelf.
    2. Presiona 1 para Dump to Local File.
    3. Presiona 3 para el Data Dump Level.
    4. Teclea el nombre del archivo (Ejemplo: conteolicencias.txt).
    5. Presiona 16 para SubscriptionTracker.
    6. Presiona Q para salir.
    7. Desde el command prompt de DOS, escribe el nombre del archivo que escogiste en el paso 4 para mostrar el archivo en pantalla.
Para versión 6.2 (Windows)
  • Desde el command prompt, estando dentro del directorio de websense /bin, escribe
  • ConsoleCliente <IP del Filtering Service> 15869
    1. Presiona 2 para PrintSelf.
    2. Presiona 1 para Dump to Local File.
    3. Presiona 3 para el Data Dump Level.
    4. Teclea el nombre del archivo (Ejemplo: conteolicencias.txt).
    5. Presiona 15 para SubscriptionTracker.
    6. Presiona Q para salir.
    7. Desde el command prompt de DOS, escribe el nombre del archivo que escogiste en el paso 4 para mostrar el archivo en pantalla.
Para versión 6.1 (Windows)
  • Desde el command prompt, estando dentro del directorio de websense /bin, escribe
  • ConsoleCliente <IP del Filtering Service> 15869
    1. Presiona 2 para PrintSelf.
    2. Presiona 1 para Dump to Local File.
    3. Presiona 3 para el Data Dump Level.
    4. Teclea el nombre del archivo (Ejemplo: conteolicencias.txt).
    5. Presiona 14 para SubscriptionTracker.
    6. Presiona Q para salir.
    7. Desde el command prompt de DOS, escribe el nombre del archivo que escogiste en el paso 4 para mostrar el archivo en pantalla.
Para versión 5.5.2 (Windows)
  • Desde el command prompt, estando dentro del directorio de websense /bin, escribe
  • ConsoleCliente <IP del Filtering Service> 15869
    1. Presiona 2 para PrintSelf.
    2. Presiona 1 para Dump to Local File.
    3. Presiona 3 para el Data Dump Level.
    4. Teclea el nombre del archivo (Ejemplo: conteolicencias.txt).
    5. Presiona 15 para SubscriptionTracker.
    6. Presiona Q para salir.
    7. Desde el command prompt de DOS, escribe el nombre del archivo que escogiste en el paso 4 para mostrar el archivo en pantalla.
Para versión 5.5.0, 5.5.1 (Windows)
  • Desde el command prompt, estando dentro del directorio de websense /bin, escribe
  • ConsoleCliente <IP del Filtering Service> 15869
    1. Presiona 2 para PrintSelf.
    2. Presiona 1 para Dump to Local File.
    3. Presiona 3 para el Data Dump Level.
    4. Teclea el nombre del archivo (Ejemplo: conteolicencias.txt).
    5. Presiona 14 para SubscriptionTracker.
    6. Presiona Q para salir.
    7. Desde el command prompt de DOS, escribe el nombre del archivo que escogiste en el paso 4 para mostrar el archivo en pantalla.

Para Linux o Solaris

  1. Desde el directorio /opt/Websense  (o el directorio diferente al por defecto donde efectuaste la instalación ), Corre el WebsenseTools con el flag -d:
    • ./WebsenseTools -d [server IP] [port]
      •  Donde Server IP es la ubicación del Filtering Service, por ejemplo:
    • ./WebsenseTools -d <Filtering Service IP> 15869
  2. Sigue los mismos pasos descritos anteriormente dependiente de tu versión específica.
  3. El archivo de texto creado se crea en el directorio /opt/Websense/bin.
  4. Puedes ver el contenido del archivo de texto usando el comando more o abriendo el archivo en un editor de texto.

Intepretando los resultados…

El archivo resultante, es realmente muy sencillo de interpretar, a sabiendas de que lo que estamos buscando es el número de licencias que actualmente están siendo usadas y el máximo permitido antes de que los usuarios salgan sin restricciones. De hecho, el archivo arroja muchos más datos que estadísticamente pueden ser muy útiles para llevar controles de navegación y de usuarios en específico. El inicio del archivo es una larga lista de direcciones IP, dependiendo obviamente del alcance de la organización donde se encuentre instalado el servicio. Estas IP son los usuarios que actualmente se encuentran registrados y usando una de las licencias disponibles.

El archivo después de este listado puede tener dependiendo de las versiones y demás, la siguiente información adicional:

Exceeded Map Contents: 

  Number of subscribed users (EIM DTF CPM net): 600 0 0 600
  Subscription Map size: 376
  Exceeded Subscription Map size: 0
  Subscription Metering: on

  Previous day user count: 408
  Current week user count(max): 408
  Previous week user count(max): 122

  Last Date map cleared: 2

La primera fila muestra las licencias disponibles, 600 para este caso. Subscription Map size: 376, indica que actualmente hay 376 licencias en uso, donde hay un exceso obviamente de 0 licencias. Los datos donde se muestra un Previous day user count 408 dice cuantas licencias hubo en total activas el día anterior y el siguiente dato muestra el Pico más alto en la semana actual del conteo. El previous week user count muestra el pico de licencias activas de la semana anterior al conteo actual.

Last Date map cleared indica el día de la semana en el que se hizo el último clareo de las licencias. Estos días se categorizan así:

0 – Domingo

1 – Lunes

2 – Martes

3 – Miercoles

4 – Jueves

5 – Viernes

6 – Sábado

En el archivo se muestran más datos que pueden ser importantes estadísticamente y en la resolución de algún inconveniente que se pueda presentar en el servicio. Si durante el proceso surge alguna duda o error, no dudes en dejar un comentario para poder ayudarte en el menor tiempo posible.

Saludos!

Cluster Geográfico automático: Recuperación inmediata

Las empresas, cada día tienen más en consideración soluciones de contingencia que puedan permitir la recuperación de un servidor que falle.  El cluster geográfico automático, es una  solución que integra el entorno de cluster con la copia remota por hardware de manera que el proceso de failover en caso de desastre sea totalmente automático.

En este caso, se trataría de una solución pensada para un servicio de  alta criticidad en el que sería necesaria la implantación de una Red SAN extendida, así como los mecanismos de terceras copias necesarios para la restauración de datos en caso de desastre lógico en tiempos tendientes a cero.

El cluster se distribuiría entre un centro principal y otro alternativo, con un nodo accediendo a cada sistema de almacenamiento. Un nodo accede a los discos principales y el otro tiene la posibilidad de acceder a la copia remota. En caso de desastre se preparan los discos remotos en el segundo nodo del cluster de forma automática durante el proceso de failover y se levanta el servicio desde éste.

Dado que el proceso es automático y no requiere intervención manual, el tiempo de conmutación es bastante reducido, de unos 5 ó 10 minutos dependiendo de las aplicaciones que se estén ejecutando.

Con esta solución y en situación de pérdida total de las comunicaciones entre los dos centros existe el riesgo de “Split Brain”, es decir, que los dos nodos del cluster sigan operando de manera independiente y se corrompa la información. Para evitar esta posibilidad, se puede considerar dejar el failover en modo manual en caso de que se pierdan todas las comunicaciones, las de los servidores y las de los sistemas de almacenamiento.

Mediante esta solución se consigue ser tolerantes en caso de desastre físico, en aquellas aplicaciones que disponen de datos, con umbrales de respuesta próximos a cero.

En caso de desastre lógico, la copia remota no se puede utilizar, ya que al ser ésta de tipo síncrono, todas las modificaciones se replican al centro remoto, incluyendo las corrupciones de bases de datos o el borrado de información.

Estos una de las distintas alternativas de las numerosos estrategias de recuperación. Desde Áudea queremos recordamos que la mejor forma de prevenir una sanción o un daño a nuestro sistemas de información, es cumplir con todas las exigencias técnicas y legales de la seguridad de la información.

Áudea Seguridad de la Información

Eduardo de Miguel Cuevas

Departamento de Gestión

www.audea.com

Prevención ante fallos y alta disponibilidad de la Información

Cuando hablamos de contingencia, es inevitable referirnos al concepto de alta disponibilidad. Actualmente, las empresas requieren que tanto sus aplicaciones, como sus datos se encuentren operativos para clientes y empleados. No debemos olvidar, que en mayor o menor medida deben ser capaces de proporcionar un nivel de servicio adecuado. Por tanto, los sistemas de alta disponibilidad en los activos tecnológicos, permiten que funcione el engranaje empresarial, en caso de que fallen, por ejemplo:

Comunicaciones. Sin las redes de comunicaciones, como empleados no podríamos realizar operaciones cotidianas y necesarias, como acceder a: Internet, a las aplicaciones, en caso que requieran validación remota, o poder mandar un correo electrónico. Por otro lado nuestros clientes no podrían acceder a los servicios  on line. Además, normalmente las empresas, disponen de una red de oficinas conectadas entre sí. Como solución, las empresas, para el caso de fallo de alguna red, disponen de:

  • Redes redundadas e independientes.  En este sentido, también suele recomendarse contratar la red redundada con otro CSP. (Proveedor de servicio de comunicaciones.)
  • Balanceadores de carga. Es la manera en que las peticiones de Internet son distribuidas sobre una fila de servidores, de manera que se gestionan y reparte las solicitudes de un gran número de usuarios, de manera que no se sobrecargue los recursos de la empresa.

Almacenamiento de la información: Las empresas también deben procurar que la información pueda ser recuperada en el momento en que se necesite, para evitar su pérdida o bloqueo, bien sea por un ataque, error humano, o situación fortuitas o de fuerza mayor.  Algunas de las soluciones para el almacenamiento de la información pueden ser :

  • Sistemas de almacenamiento RAID: conjunto redundante de discos duros independientes que viene a ser como una matriz de discos duros interconectados entre sí y cuya peculiaridad es que se comportan como un único disco.
  • Centro de procesamiento de datos alternativo:  El almacenamiento es dedicado y la replicación de datos en tiempo real se utiliza para pasar datos del sitio de producción al sitio de recuperación ante una contingencia.

Sistemas/Aplicaciones: La administración y configuración de aplicaciones/sistemas, requiere a las empresas una gran labor de configuración y administración. En caso de contingencia de un sistema, esta labor de administración y configuración, se hace realmente tediosa, si cada sistema o aplicación debe administrase “independientemente” la gestión de los recursos que requiere (CPU, RAM, Almacenamiento, etc.), así como el servidor que lo aloje.  Algunos de los mecanismos que facilitan éste trabajo:

  • Virtualización: Ofrece la posibilidad de disponer de varios “servidores” o máquinas virtuales con características muy distintas pero instalando físicamente una sola máquina o servidor, cuyos recursos son compartidos por las máquinas virtuales que se comportarán a su vez como servidores reales.
  • Snapshot: Es una instantánea del estado de un sistema en un momento determinado. El término fue acuñado como una analogía a la de la “fotografía”.

Servidores. Las empresas, van incrementando exponencialmente el uso de recursos, por lo que frecuentemente, los servidores que hay no son suficientes como para poder atender las peticiones. Además, en caso de que solamente exista un servidor que atienda las peticiones de un servicio crítico, implicaría que si el servidor dejara de funcionar, es servicio quedaría interrumpido. Para combatir esta dificultad, se han incorporado sistemas de clustering, o agrupamiento de sistemas de servidores que permiten escalar la capacidad de procesamiento. Entre las distintas modalidades se pueden distinguir los siguientes tipos:

  • Activo-Pasivo:  Un nodo Activo estaría funcionando, procesamiento las peticiones de servicio , y el otro nodo  Pasivo en el que se encuentran duplicados todos estos servicios, pero detenidos a espera de que se produzca un fallo.
  • Activo-Activo: los dos nodos comparten los servicios de una manera activa, normalmente balanceados con el sistema anteriormente expuesto, consiguiendo una disponibilidad mayor.
  • Granja de servidores: Orientado no solo a la fiabilidad, sino a la capacidad de procesamiento.

Estos son algunos de los numerosos ejemplos que permiten alta disponibilidad, frente a fallos o contingencias. Desde Áudea queremos recordarles que la mejor forma de prevenir una sanción o un daño a nuestro sistemas de información, es cumplir con todas las exigencias técnicas y legales de la seguridad de la información.

Áudea Seguridad de la Información

Eduardo de Miguel Cuevas

Departamento de Gestión

www.audea.com

¿Qué es el Comercio Electrónico Seguro?

A pesar del panorama económico mundial del que no podemos escapar de momento, se puede decir que el comercio electrónico no deja de crecer; siendo cada vez más habitual en las transacciones diarias, tanto para gestiones bancarias como para el pago de productos o servicios.

Su popularización general ha ido creciendo de forma paralela a la confianza acentuada de los usuarios en su utilización. Sin embargo, utilizar estos servicios implica una serie de amenazas relacionadas con la seguridad, tanto de los datos personales como de nuestro dinero; caracterizado por el fraude y los diferentes tipos de abuso que existen. Por este motivo, debemos ser cautos a la hora de realizar nuestras gestiones online, y tener en consideración una serie de buenas prácticas que garanticen de alguna forma que las transacciones se realizan de forma correcta.

Los sistemas de autenticación permiten verificar la identidad durante todo el proceso de compra, y aunque existen diferentes medios que lo permiten, siempre dependerán en gran medida de la infraestructura del comercio online. La forma más tradicional y “rudimentaria” en cuanto a sistema de autenticación sería el uso del nombre de usuario y clave asociada, aunque en ocasiones viene reforzada con utilidades como teclados virtuales. No obstante, actualmente existen múltiples mecanismos que han ido mejorando considerablemente con el tiempo, entre los que se encuentran las tarjetas inteligentes, los tokens, los dispositivos biométricos, y los certificados y firmas electrónicas.

Durante las transacciones, además deberemos fijarnos en el cifrado de las mismas para asegurar la integridad de los datos y su intercepción durante el proceso. A través del conocido protocolo de autenticación SSL, se desarrolla el HTTPS; que se identifica en el navegador de forma https:// en lugar del habitual http://. Deberemos observar siempre su existencia para asegurarnos la seguridad en el trascurso de las operaciones.

Siguiendo en esta línea, también deberemos verificar si la URL que se indica durante todo el proceso corresponde con la del comercio o entidad en sí; ya que es posible la simulación de empresa a través de la modificación de uno de los dígitos de la URL, y que con un “look and feel” similar se pueda estar proporcionando datos a una empresa diferente.

En muchas ocasiones también podremos encontrarnos con situaciones que nos hagan sospechar a primera vista, por lo que deberemos ser más cautos. Por ejemplo si nos solicitan datos que creamos excesivos para la transacción que estamos realizando, que el certificado de seguridad proporcionado se encuentre caducado o no sea válido, o simplemente que no haya ninguna información sobre la razón social de la empresa, dirección, medio de contacto o CIF. En todos estos casos, a parte de parar temporalmente la transacción comercial, se podrá acudir a la búsqueda de opiniones de demás usuarios acerca de la reputación de dicho comercio.

Nunca debemos olvidar también que en Internet existe la letra pequeña y se puede jugar con ello. Es importante leer atentamente los términos y condiciones de contratación que se aceptan de forma previa, que no pueda sorprendernos ninguna situación posterior desconocida. Además, una vez finalizado un proceso de compra, la empresa deberá notificar mediante correo electrónico al usuario la confirmación de la compra y su valor. Y no queda ahí, además nuestra tarea posterior será la comprobación en el banco para verificar que el importe cargado es el correcto.

Actualmente existen muchas certificaciones válidas expedidas por diferentes agentes que puedan disponer el comercio online, como puedan ser Trust-e, Confianza Online o Verisign; que garantizan en un primer momento la confianza del sitio web. No obstante, debemos siempre ser cautos y prestar la mayor diligencia posible en el proceso, ya que el desarrollo de la tecnología no permite siempre que pueda ser utilizada de forma segura; y menos cuando hay dinero de por medio.

Iván Ontañón Ramos
Consultor en Áudea Seguridad de la Información.

IBM presenta la primera familia de Sistemas Integrados Expertos

El próximo 11 de abril de 2012 IBM lanzará a nivel mundial la primera familia de sistemas integrados expertos. La esperada presentación tendrá lugar en un evento virtual al que se podrá acceder simultáneamente desde todo el mundo,  convirtiéndolo en un foro global.

El diseño de estos novedosos sistemas integrados expertos es resultado del enorme conocimiento de IBM, fruto de sus 100 años de experiencia y miles de desarrollos de TI, que permitirá a día de hoy reducir el tiempo de puesta en marcha de nuevos proyectos a tan sólo cuatro horas.

Los sistemas integrados expertos de IBM revolucionarán los aspectos económicos fundamentales de la operativa de su negocio permitiéndole conseguir resultados óptimos en agilidad, eficiencia, simplicidad y control. Incorporan la flexibilidad de un servidor con la elasticidad que aporta el entorno de cloudcomputing y la simplicidad de un appliance.

Podrá ampliar información haciendo clic aquí y registrarse a los eventos de presentación: Evento virtual de presentación a nivel mundial el próximo 11 de abril y Evento de presentación en Madrid el próximo 25 de abril de 2012.

Visita http://ibm.co/H8ubhL 

INTECO publica informe sobre Seguridad WI-FI

Según el estudio del segundo cuatrimestre del 2011, INTECO publica un informe dónde encontramos datos preocupantes: La gran mayoría de los  internautas (74,1%) lo hacen a través de su propia conexión, pero también existe un porcentaje de ellos que utiliza redes ajenas, ya sean públicas (25,2%) o de otro particular (11,9%).

Noticias como ésta nos hacen darnos cuenta de la cantidad de peligros a los que se exponen hoy en día los usuarios de Internet que utilizan medios no seguros de conexión para intercambiar todo tipo de datos, sin tener en cuenta que la confidencialidad de los mismos, así como su integridad podría verse fácilmente comprometida.

Esta noticia afecta tanto a la LOPD, ya que pueden verse comprometidos datos de carácter personal, como a la seguridad informática en general.

Al utilizar una WIFI abierta, por ejemplo y tal y como resalta INTECO dentro del artículo: cualquier intruso situado dentro del radio de emisión podría acceder a los datos que se estén intercambiando a través de la conexión inalámbrica.

Además la seguridad WIFI no es sólo importante a nivel de usuario, si no para PYMES, empresas y organismos públicos. Ya en Julio del 2011 publicamos un artículo sobre este tema:

http://www.audea.com/noticias/%c2%bfpor-que-mi-empresa-necesita-una-auditoria-de-redes-wifi/

Para más información sobre el informe de INTECO aquí tenéis el link

Áudea Seguridad de la Información

Departamento de Gestión

Rubén Fernández

www.audea.com


Kaspersky publica informe sobre ataques DDoS

Karspersky ha hecho público su Informe de ataques DDoS relativo al segundo semestre de 2011, en el que asegura que la potencia de los ataques DDoS neutralizados por sus soluciones de seguridad aumentaron su potencia en un  57 %  respecto al primer semestre del año. Según la compañía, los que más utilizan este tipo de ataques son los falsificadores de tarjetas de crédito.

Los ‘hacktivistas’ y los ciberdelincuentes han adoptado este sistema de ataque como una herramienta para sus ataques y han hecho que se convierta en una de las preocupaciones fundamentales de las empresas y compañías de seguridad.

Este tipo de ataques puede dejar fuera de servicio páginas o sistemas que sean su objetivo, por lo que su duración es un dato especialmente importante.

En el segundo semestre de 2011, la gran mayoría de los ataques DDoS se lanzaron contra una página web que vendía documentos falsificados dando muestra de la dura competencia existente entre los ciberdelincuentes.

Los investigadores de Kaspersky han explicado que las ‘botnets’ atacan foros en los que se discuten temas de venta de tarjetas de crédito y sitios en los que se venden datos de dueños de tarjetas. Las siguientes víctimas de los ataques DDoS son los sitios que ofrecen alojamiento blindado y servicios VPN para ciberdelincuentes.

Áudea Seguridad de la Información

Departamento de Marketing y Comunicación

www.audea.com

fuente: PortalTic

Google cambia su Política de Privacidad

Como muchos os habréis dado cuenta, desde hace unos días al iniciar el buscador, u otras aplicaciones de Google, aparece una nota informativa que indica que han cambiado su política de privacidad.

La política de privacidad de un sitio Web nos indica qué va a hacer la empresa responsable del mismo con los datos personales de los usuarios que pudieran ser recabados durante la visita a éste, o por la utilización de ciertos programas.

Si dedicáis un tiempo a su lectura os daréis cuenta de hasta dónde nuestras visitas son fiscalizadas por Google.

Esta nueva política de privacidad entrará en vigor a partir del día 1 de marzo de 2.012, y sustituirá las versiones anteriores que hasta la fecha vinculaban a la empresa. Como novedad indicar que las distintas políticas de privacidad que con anterioridad se ofrecían de forma personalizada a las distintas funciones, programas, aplicaciones  y territorios,  ahora se han sustituido por una única que se aplicará en su conjunto a todas, con independencia de la aplicación, país donde se recaben los datos, y legislación aplicable al mismo. Como sabréis Google es una empresa global, y nuestros datos personales pueden viajar por todo el mundo sin que nos demos cuenta.

La tipología de datos que trata Google es muy heterogénea, y va desde los que voluntariamente proporcionamos al registrarnos en alguna de sus aplicaciones, hasta aquellos que se recaban sin que el usuario sea consciente de ello. Entre estos últimos preferencias de consumo, lugares o páginas visitadas frecuentemente, búsquedas realizadas, datos telefónicos, datos del dispositivo y programas utilizados en la consulta y en el dispositivo u ordenador, dirección IP, incluso datos de geolocalización mediante el uso de móviles con GPS, y triangulación.

Google utilizará estos datos para prestar, mantener, proteger y mejorar sus servicios, así como el ofrecimiento de contenidos personalizados, y podrá ceder estos datos a otros usuarios si así lo hemos indicado.

Para modificar las preferencias en cuanto a permisos y utilización de éstos datos ofrece un panel de control donde poder cambiar las mismas, cosa que casi nadie hace.

Como conclusión, la interacción entre los distintos programas y aplicaciones de Google, así como el recabo de nuestros datos hace que la compañía pueda crear un perfil exhaustivo de nuestra personalidad, usos, y costumbres, pudiendo localizar en todo momento a un usuario a lo largo y ancho del planeta.

Las autoridades europeas conscientes del gran número de afectados, y de las distintas legislaciones que entran en juego en esta cuestión, han decidido realizar un estudio pormenorizado sobre la aplicación de esta nueva política de privacidad, a través del grupo de trabajo del artículo 29, organismo europeo encargado del estudio. De momento no conocemos las conclusiones a las que se han llegado al respecto.

Aurelio J. Martínez Ferre.

Áudea Seguridad de la Información.

www.audea.es

El virus DNSChanger podría dejar sin Internet a millones de usuarios

Ya se había hablado anteriormente del próximo ataque del grupo Anonymous, en esta ocasión vamos a hablar exactamente de que se trata este ataque y como funcionaría y como prepararnos para evitar ser víctimas de ello.

El FBI está realizando una operación de limpieza y erradicación del virus Troyano DNSChanger. Esta clase de malware infecta equipos, cambiando sus parámetros de DNS, y redirigiendo al usuario a páginas maliciosas o fraudulentas.

Los servidores de DNS se utilizan para traducir la URL introducida por el usuario en la IP pública correspondiente. Si Se hace la consulta a un DNS malicioso, la URL se traducirá con la IP pública de un site malicioso especialmente diseñado por el atacante.

El próximo 8 de Marzo, el FBI procederá al cierre del servidor DNS malicioso que configura el virus en los ordenadores infectados, por lo que todos aquellos usuarios con el virus en ejecución se quedarán sin acceso a la red (no tendrán traducción  de URLs a IPs públicas).

Para subsanar el problema, hay que desinfectar la máquina, de tal forma que nos aseguremos que las peticiones irán a un servidor DNS de confianza. Para ello, se puede realizar un análisis bajo demanda, utilizando una protección Antimalware con el fichero de firmas actualizado.

Una vez se desinfecte el equipo, se podrá configurar un DNS público en los parámetros de red, u obtener uno mediante DHCP.

Es necesario re-aplicar la configuración de red, ya sea reiniciando el controlador de red, o realizando algún cambio en la configuración que implique la re-aplicación del mismo.  Al no ejecutarse el virus, las peticiones serán resueltas ahora de forma veraz, y se habrá solventado el problema.

No es necesario esperar al día 8 de Marzo para verificar si el equipo está infectado (se quedará sin navegación).

Todo usuario puede comprobar si su equipo está infectado desde la página: www.dnschanger.eu.

Áudea Seguridad de la Información .

José Francisco Lendínez

Departamento de Seguridad TIC.

www.audea.com

AJAX vs SEO un truco para que no se afecten uno al otro

seo vs ajax

seo vs ajax

El problema de como AJAX afecta el SEO o posicionamiento de una pagina web parece sencillo pero no lo es, Miremos por que:

SEO usa información de un sitio web para saber si esta  web tiene información relativa a una palabra clave (KEY); pero que sucede si los contenidos de este sitio web cambian de una manera no dirigida por la navegacion del usuario (enlaces) si no de una manera dinámica como lo hacen los sitios web desarrollados con AJAX?

 

Pues debemos informar de alguna manera al navegador acerca de la relación entre palabras clave y URL y eso se puede hacer con el siguiente truco :

 

El truco aqui es crear en el tag que lanza el AJAX; un hipervinculo en el cual al atributo href  se le pone la url de destino hacia un nuevo documento HTML que debe mostrar un HTML estatico con resultados similares a los que AJAX devolveria. Y de esa manera se puede trabajar con los navegadores que no tengan javascript miremos esto con un ejemplo de un enlace programando el evento  onclick del tag “a” .

pongo <a href=”urldestino.php” onClick=”miFuncionAjax(parametros);return false”>key a posicionar</a> y de esta manera cuando nuestro visitante hace click el usuario no sigue el enlace del href,  sino la función de AJAX que se ha desarrollado.

Pero un motor de búsqueda como google va a darle ponderacional enlace y no a la funcion de AJAX.

De esta manera pues la indexacion de contenidos que realmente existen en nuestro sitio web se puede dar y los enlaces inclusive a funciones de AJAX aportaran a la estrategia de posicionamiento de algun sitio web.

Si quieren aprender mas trucos sobre AJAX visiten este sitio web ajax en colombia , aprovecho para recomendarles algunos cursos de ajax en colombia

Articulo tomado de: fuente original :  (como evitar que AJAX afecte al SEO de una pagina)


curso de ajax en Medellin
curso de ajax en Barranquilla
curso de ajax en Cartagena
curso de ajax en Manizales
curso de ajax en Monteria
curso de ajax en Bogota
curso de ajax en Villavicencio
curso de ajax en Pasto
curso de ajax en Armenia
curso de ajax en Pereira
curso de ajax en San Andres
curso de ajax en Bucaramanga
curso de ajax en Cali

Anonymous ataca la web del Partido Popular de Foz

El grupo de ‘hacktivistas’ Anonymous ha atacado la página web del Partido Popular de Foz (Lugo). Cuando los usuarios acceden a la web www.ppdefoz.es aparece un mensaje del grupo y un vídeo donde se critica la gestión del gobierno en cuanto al desempleo y se les acusa de la “mayor prevaricación de la historia”. Esta acción de Anonymous se ha convertido en Tema del Momento en Twitter.

El grupo Anonymous continúa con sus ataques a lo largo y ancho de Internet. En esta ocasión, la página elegida ha sido la web del PP de la localidad de Foz (Lugo). Acusando a los políticos de “detestados corruptos” y de “pactar cómo desmontar el país”, el grupo de ‘hacktivistas’ asegura que Anonymous no podrá ser “reprimido” para seguir luchando contra las que consideran “una serie de injusticias contra los ciudadanos”.

Advierten que nada ni nadie puede parar el movimiento Anonymous porque Anonymous son “la gente”. “Millones de ideas se generan espontáneamente a lo largo y ancho del planeta en ese preciso momento, ¿de verdad creen que pueden detener el pensamiento colectivo?”, asegura el grupo en el vídeo.

Por ultimo alegan a una traición tanto de los sindicatos como de los partidos, que ha llevado a la situación del país, por lo que Anonymous se declara como “el temor de vuestras mentes corruptas“. “Todo lo que tenéis os lo dimos nosotros y forzáis el día en que lo queramos de vuelta”, concluyen.

Áudea Seguridad de la Información

Departamento de Marketing y Comunicación

www.audea.com

Fuente: portaltic.es