Blog

ZMAP Y NMAP – 3evl

Diferencia entre Zmap y Nmap

ZMAP e unha ferramenta de codigo aberto que nos permite realizar un escaneo a  red para determinar erros e posibles fallos.

NMAP (Network Mapper) e unha ferramenta poderosa que nos permite a posibilidad de auditar a seguridade de unha red e descubrir equipos conectados a mesma.

 

Anuncios

METADATOS – 3evl

Meta mais ala do dato. Unha foto podria mostrar mais ala do que ves,  permitindonos saber o tipo de extensión do arquivo,  tamaño e fecha de creación, entre outros, sucede que frecuentemente son utilizados por ciberdelincuentes para obter infomacion acerca de unha victima. 

 

fecha-hora

Outra forma de ver metadatos son na paxina web “shodan.io” que nos aporta metadatos de camaras web 
Details

HTTP/1.1 200 OK
Connection: close
Content-Type: text/html; charset=utf-8
Content-Length: 7351
Cache-control: no-cache, must revalidate
Date: Tue, 17 Apr 2018 21:00:24 GMT
Expires: Tue, 17 Apr 2018 21:00:24 GMT
Pragma: no-cache
Server: webcamXP 5
La seguridad es eliminar los metadatos en archivos,fotos, etc.
Qué son y cómo borrar los metadatos de una foto en Windows 10

SHODAN.IO – 3evl

VIXILANCIA OCULTA

Resultado de imaxes para ojo de gran hermano

Paxina Web que nos ofrece esta ferramenta de vixilancia a camaras web, routers, etc.

Podemos aceder a camaras que estan activadas.

A busqueda se fai por uns filtros:

  • webcamxp
  • contry: “ES”
  • city: “VIGO”

etc. hay que ter coidado con estas paxina por descargar arquivos dañinos para os PCs, e levarte a paxinas perigrosas.

 

BASHWARE – 3evl

SUBSISTEMA LINUX PARA WINDOWS EN RISGO

 

Resultado de imaxes para VIRUS EN BASHWARE

Especialistas en control de seguridad CHECKPOINT Software han descuberto un problema de seguridad no Subsistema Linux para Windows. Elo permitira instalar malware baixo unha  tecnica denominada BASHWARE, indetectable para solucions de seguridade actuais e que pondria en risgo os PCs de Microsof. Este Sofware foi instalou despois da version de Windows10-Home.

Es un Sofware de Linux para Windows (WSL-Subsistema de Linux para Windows) ten que estar desactivado para que non de problemas de instalarse un malware ou virus.

link del vídeo Bashware

 

Protección de Datos sanciona a Whatsapp y Facebook por ceder y tratar datos personales sin consentimiento

El regulador español impone 600.000 euros de sanción por no ajustarse a la normativa española y teniendo en cuenta factores como el número de tratamientos, el volumen de negocio o la vinculación de la actividad de estas con los tratamientos de datos de carácter personal

Europa vuelve a poner contra las cuerdas a uno de las mayores empresas tecnológicas del mundo. La razón, de nuevo, su tratamiento de los datos perosonales de los usuarios. Después de las presiones de organismos europeos, la Agencia Española de Protección de Datos (AEPD) ha impuesto la mayor sanción económica a Facebook y WhatsApp por la cesión de información sensible.

El regulador español, según el dictámen emitido este jueves, da por probada la existencia de dos infracciones graves de la Ley Orgánica de Protección de Datos. Así, ha multado a cada una de las empresas con 300.000 euros, la cuantía máxima correspondiente a las infracciones graves declaradas: una de ellas diretamente a la aplicación de mensajería instantánea por «comunicar datos a Facebook sin haber obtenido un consentimiento válido de los usuarios» y otra a la empresa matriz «por tratar esos datos para sus propios fines sin consentimiento».

Un escenario que se enmarca dentro del pulso de los reguladores europeos que han puesto el grito en el cielo por el tratamiento informativo entre ambos servicios digitales, dos de los más importantes y más populares del mundo. No obstante, WhatsApp no podrá, de esta forma, compartir los datos de usuarios con Facebook hasta no cumplir con el Reglamento General de Protección de Datos (GDPR, según sus siglas en inglés), que será de obligado cumplimiento a partir de mayo.

En el caso de la sanción sobre WhatsApp, el regulador considera que el actual marco normativo «exige» que exista un «consentimiento libre, específico e informado» para la cesión voluntaria de los datos entre ambas plataforma. Dos años después de la adquisición en 2014, WhatsApp habilitó mecanismos para rechazar que la información cedida pudiera ser utilizada con la finalidad de «mejorar» la «experiencia con los productos y publicidad en Facebook», pero «no con otros fines recogidos en la política de privacidad».

La AEPD insiste en que a los usuarios nuevos «ni siquiera se les ofrecía la opción de negarse a que sus datos fueran cedidos a Facebook para los fines publicitarios». La resolución recoge que «exigir que los usuarios presten su consentimiento como requisito» para poder hacer uso de la aplicación de mensajería «no puede considerarse libre y, en consecuencia, no puede considerarse válido». Para que el consentimiento prestado por el usuario sea válido, recalca el regulador, «este ha de ser informado y específico», de tal modo que «la ausencia de información o una información insuficiente determina la falta de consentimiento».

La resolución añade que la información sobre a quién se pueden ceder los datos, las finalidades para las que se le ceden o la utilización que harán de los mismos los cesionarios «se ofrece de forma poco clara, con expresiones imprecisas e inconcretas que no permiten deducir, sin duda o equivocación, la finalidad para la cual van a ser cedidos». Otra de las sanciones establece que las deficiencias expuestas en relación con la información facilitada a los usuarios de WhatsApp sobre la cesión de sus datos y el consentimiento prestado se reproducen respecto a Facebook «no puede considerarse libre, específico e informado».

La compañía tecnológica ha salido al paso y ha asegurado que no comparte datos en la actualidad. «WhatsApp se preocupa profundamente por la privacidad de nuestros usuarios. Recopilamos muy pocos datos y cada mensaje está encriptado de extremo a extremo. Como hemos aclarado en varias ocasiones durante el último año, no compartimos datos que la Agencia Española de Protección de Datos ha expresado su preocupación», señalan fuentes de WhatsApp en declaraciones a este diario.

«El aviso que se mostraba solo permitía oponerse a una parte del tratamiento de sus datos -además de que podríamos criticar el hecho de que la opción no resultaba claramente visible-»

Los expertos creen que se trata de una sanción previsible dado que no puede aceptarse que el consentimiento utilizado por Facebook para la cesión de datos desde WhatsApp sea realmente libre, específico e informado. «Como se advirtió desde el primer momento, el aviso que se mostraba solo permitía oponerse a una parte del tratamiento de sus datos -además de que podríamos criticar el hecho de que la opción no resultaba claramente visible-», valora en declaraciones a este diario Sergio Carrasco, experto en derecho digital en Fase Consulting.

A su juicio, «estaba claro» que tras la adquisición dichos datos serían utilizados en el ejercicio de la actividad comercial de Facebook. «En caso contrario no se habría adquirido la herramienta al no resultar tan interesante, y es por ello que las autoridades de protección de datos han estado encima de las potenciales infracciones que se han ido detectando», añade.

La tiranía silenciosa de los algoritmos que dominan nuestras vidas

Las fórmulas matemáticas desarrolladas internamente por las mayores empresas tecnológicas del mundo son como la fórmula de la Coca-Cola, todo el mundo asume que existen, pero pocos las conocen, aunque mueven los principales servicios digitales que ya forman parte de la existencia humana

En algún momento, quién sabe dónde y cuándo, algún gurú retrató a los datos que manejan los servicios digitales como el petróleo del siglo XXI. El enunciado puede ser más o menos acertado. Si así fuera, los algoritmos, esas largas fórmulas matemáticas que llevan con cierta opacidad y hermetismo las compañías tecnológicas, serían las refinerías de las que se extrae ese preciado activo. Como si se tratasen de la fórmula de la Coca-Cola, pocos tienen acceso a lo que son capaces. Pero son la mano que mece a empresas como Facebook, Twitter o Netflix.

Presentes en infinidad de plataformas online, los algoritmos informáticos están presentes en la vida de millones de personas de manera silenciosa. Invisible a sus ojos. Pero están detrás de las actividades en las que disfrutan diariamente. Domina la vida cotidiana sin reparo alguno y simbolizan, en parte, las borrascas que harán tronar a las lógicas empresariales en ese giro hacia la automatización total de la sociedad y la industria.

Un algoritmo decide, porque así está definido en su programación, lo que Facebook muestra en su panel principal, llamado NewsFeed. Desde su muro de entrada, los 2.300 millones de usuarios que tiene registrada la red social perfilan parte de su mundo. Descubren lo que hacen sus amigos y contactos. Fiscaliza, a su vez, lo que debemos conocer a nivel informativo, como sucede con los llamados «temas de tendencia» o «trending topic» en Twitter, una secuencia de temas que por asimilación le otorgamos el placer de ser lo más importante del día. Los algoritmos de Google y Facebook determinan la jerarquía de los contenidos o la publicación de determinadas imágenes.

Recientemente, la directora general de Google para España, Fuencisla Clemares, dejó caer un hecho: un algoritmo es capaz de evitar la brecha salarial entre hombres y mujeres dentro de la compañía estadounidense al establece, automáticamente y por decreto virtual, lo que debe cobrar cada uno. ¿Debemos descargar toda la responsabilidad es una máquina? Un algoritmo también decide, en función de una serie de parámetros y registros de actividad de sus usuarios, el contenido recomendado que, se supone, más nos interesa en los servicios de contenido multimedia como Netflix. En efecto, suele acertar en un alto porcentaje con nuestros gustos. Es indudable su capacidad de acierto, pero puede reducir la percepción de nuestro pequeño universo. Spotify, otro servicio de gran popularidad con el que se puede escuchar música en «streaming» también sugiere las canciones que más se ajustan a nuestra personalidad. El propio sistema anota lo que interesa y lo que no, rechazando rápidamente el contenido descartado en una lucha por la audiencia llevado al extremo.

Ni que decir tiene que una de las empresas que más ha apostado por este negocio es Amazon, el gigante del comercio electrónico que ha logrado que millones de personas reciban en bandeja los productos que más necesitas. Pese a sus indudables virtudes, esa forma de operar también tiene una cara menos amable, un mundo distribuido en círculos sociales. ¿Vamos así hacia un pensamiento único en donde los usuarios solo consuman lo que les gusta? ¿Dónde queda, por tanto, la diversidad? «Las instrucciones que controlan el funcionamiento de los programas informáticos tienen efectos tangibles sobre nuestras acciones y las formas de las sociedades que construimos», apunta Dominique Cardon en su libro «Con qué sueñan los algoritmos».

Emular el comportamiento humano

La intervención de la mano humana es indudable en estos casos. Un sistema automatizado con capacidad de aprendizaje es capaz de «aprender» de los usos cotidianos de las personas. En la actualidad, los avances en inteligencia artificial y robótica perfilan parte del futuro al que debemos sumergirnos. Pero estos sistemas, pese a que pueden evolucionar hacia un intento de replicar el comportamiento del cerebro humano, están «entrenados» por personas.

De ahí que desde la parrilla de salida ya tengan sesgos y prejuicios heredados de las sociedades occidentales, en ellos se incluyen las ideologías más fuertes, se establece una moral definida por las empresas que lo desarrollan. Se superpone, así, el mundo actual. Esta delicada situación deriva en que, según un estudio elaborado por cinco expertos (Venkatesh Saligrama, James Zou, Tolga Bolukbasi, Kai-Wei Chang y Adam Kalai) de la universidad de Boston (EE.UU.) hayan caído en la cuenta que la manera en que aprenden las máquinas contengan la misma concepción social que nos rodea.

En su libro «Armas de destrucción matemática», la científica y matemática Cathy O’Neil pone de relieve que las decisiones que toman esos famosos algoritmos «aumentan la desigualdad», provocando que sean las máquinas quienes concedan o no un préstamo, evalúen a los empleados, monitoricen la salud de los ciudadanos y, además, lleguen a influir en el criterio de los potenciales votantes en unas elecciones. Una situación en la que coincide el activista Eli Pariser, quien ha desarrollado una teoría bautizada como el «filtro burbuja». La mayor parte de los buscadores y páginas webs de noticias -relata- cuentan en la actualidad con este tipo de programas, y su objetivo no es precisamente que «el usuario cambie de opinión y amplíe sus horizontes». «Estas empresas deciden qué opciones tenemos de menú», lamenta. De ahí que si la intención del ser humano es que las máquinas sean mejores que las personas, es indudable que vamos por el mal camino.

Réplica del comportamiento humano

Vamos, por lo tanto, hacia un futuro en el que se repitan los mismos errores. Esos seres artificialmente inteligentes replicarán así nuestros mismos defectos y comportamientos dudosos. Los expertos en esta materia han insistido en la necesidad de establecer una serie de pautas e introducir una ética en la inteligencia artificial ante los fundados temores en que los robots se rebelen en un futuro. Mentes brillantes como el fallecido Stephen Hawking, gurús de la talla de Elon Musk o magnates como Bill Gates llevan tiempo alertando de los posibles conflictos que pueden derivarse de una inteligencia artificial sin control.

Incluso en uno de los activos que más interés ha despertado en los últimos tiempos, los avances en conducción automática, beben de estos programas para su funcionamiento. Los coches del futuro circularán ellos solos. Lo harán gracias a las redes de sensoresque «verán» todo el entorno, aprovecharán las futuras redes móviles 5G para «hablar» entre otros vehículos y el entorno, pero en su interior habrá una de estas fórmulas que empujará a tomar decisiones. «El algoritmo de los coches que se conducen solos tienen que tener algo de ética. La decisión de dar un frenazo o desviarse es una decisión que el cerebro humano toma en milisegundos y en base a los impulsos. ¿Cómo se lo programas a la máquina? Tienes que darle una conducta, pero la estamos creando nosotros, así que es necesario comités de ética», reconoce a este diario Manuel Fuertes,responsable de la firma especializada en innovación Kiatt, que trabaja entre nexo entre los científicos y las empresas.

Todos los sectores abrazan el futuro

Los expertos en esta materia aplauden, en ese sentido, que los siguientes pasos de los algoritmos sean los de «aprender» por su propia cuenta. «Estamos logrando introducir ahora inteligencia artificial a los algoritmos y poder predecir, por ejemplo, cuándo se romperá una pieza, lo que nos puede hacer ahorrar mucho para mantener las líneas de producción», añade Fuertes. Se extrae así el grano de una paja que, hasta ahora, se movía por experiencia, intuición y, quién sabe, un poquito de suerte.

Son pocos los sectores industriales que escapan de los tentáculos de los algoritmos. También en la banca y las finanzas salta la liebre. Agentes de bolsa toman sus decisiones amparándose en lo que un software o programa informático considera que debe hacer para maximizar sus inversiones. ¿Nos engañan? ¿Y si provocan un agujero económico a costa de la especulación? No sería la primera vez que han llevado como locas a las bolsas mundiales produciendo estragos cuantificables en millones de dólares. Todo ello representa, para algunos expertos, una fuente de inestabilidad a largo plazo. Es decir, lo contrario que busca el mundo financiero.

Tampoco un activo tan importante como la ropa queda exento de su poder. Hoy en día todo debe estar contabilizado, cuantificado, analizado, testado. Antes de la salida de un producto al mercado ya se conoce de antemano el posible impacto económico. En las empresas actuales, al menos las de mayor envergadura, se toman decisiones estratégicas en función del análisis pormenorizado de datos procedentes de diversas variables (geográficas, perfiles de clientes, beneficios). Una especie de dimensión tiránica a la que ya nos hemos acostumbrado.

SEG. DE LA INFORMACION”ENCRIPTACION

Resultado de imaxes para IMAGENES DE ENCRIPTACION

“ENCRIPTACION” E unha forma de facer ilexible os textos, imaxenes, etc.

os metodos se basan nas chaves que se teñan.

  • Unha chave  “SIMETRICA” (duas claves iguaia)

o emisor e o receptor teñen a mesma clave.

  • Duas chaves “ASIMETRICA” (duas claves desiguais):

Emisor ten duas claves a publica e a privada, este encripta con a clave privada e o receptor a desencripta con a clave publica do emisor.

Con esta forma temos asegurado a “Confidencialidad” e “Integridad”.