P4P, FUTURO DE LAS REDES P2P

INTRODUCCIÓN:

Las redes P4P o redes P2P Híbridas, son un desarrollo de las redes P2P, una optimización de las redes P2P para mejorar el tráfico de información.

Aún no está en pleno funcionamiento pero se prevé que, en un periodo corto de tiempo, sustituyan definitivamente a las redes P2P convencionales.



NOVEDADES Y USOS:

Las redes P4P no son un nuevo protocolo, sino un desarrollo de las redes P2P.

Las redes P4P o P2P Híbridas, funcionan de la misma manera que las P2P, mejorando la velocidad de tráfico, velocidades de descarga de información o haciendo más estable la red a pesar del tráfico y de los usuarios. Se prevé que aumente el tráfico de información y usuarios que utilicen las redes P2P en los próximos años, por ello, las redes P4P subsanarán esos problemas. 



CONCLUSIÓN:

Las redes P4P no sólo mejoran  la velocidad de tráfico de información, sino también pueden discriminar información, es decir, aceptar o rechazar información que pueda circular mediante este método. Ésto, suscita críticas ya que la eliminación o utilidad de información puede obedecer a criterios subjetivos, intereses de particulares y de los socios desarrolladores del servicio.

Esto se explica porque, las redes P4P, están siendo desarrolladas con la colaboración de la Asociación de Distribución de la Industria Informática capaz de controlar y filtrar tanto a usuarios como el contenido. Además, su función es luchar contra la violación de los derechos de autor.

Por tanto, se podrán vetar contenidos o aplicar tarifas a las descargas, vulnerando el verdadero espíritu de las redes P2P originarias. 

BIBLIOGRAFÍA:


- Descargas de información; redes y programas -





Introducción.

El término descarga, y más concretamente descarga de información, hace referencia a la transferencia de datos/archivos desde un aparato electrónico vía un canal de información.

Cuando accedes a internet mismamente, ya estás descargando información, porque para que la página en la que entras llegue a visualizarse primero tiene que ser descargada y una vez almacenada -de forma temporal- en local es cuando ya puede procesarse para ser vista.
De todas formas, aunque este término tiene varios significados, el que realmente nos atañe ahora mismo, no es ese. Sino el más común y en el que todo el mundo piensa cuando se habla de descargar algo, el que consiste en obtener documentos -imágenes, música, videos, pdf, etc- para su posterior visualizado offline.

Desarrollo.

Según los métodos de descarga, hay varios tipos:

  • Descarga directa: Como su nombre indica, es un tipo de descarga que no requiere de espera alguna. Tampoco es necesario ningún tipo gestor de descargas. Los archivos permanecen en la nube, y para descargarlos accedes a una url que te permitirá llegar al archivo.
    Las empresas que se encargan de ofrecer el almacenamiento necesario para estos archivos son cada vez más – Mediafire, Rapidshare, FileFront, Mega, Letitbit... y un largo etc-. Y no todas tienen al misma velocidad de descarga ni las mismas condiciones. Algunas tendrán límite de megas descargados, otras no te dejarán hacer varias descarga simultáneas... pegas que podrás saltarte si te haces una membresía premium, claro. Aunque hay empresas como Mediafire y Load.to que hacen negocio con la publicidad, así que no hay este tipo de limitaciones.Como punto fuerte destacaría sin duda la independencia de otros usuarios. No tienes que compartir el archivo para que aumente la velocidad ni corres el riesgo de quedarte sin poder descargar el archivo porque la persona que lo tiene no lo comparte más.
  • P2P: Necesitas un programa que gestione las descargas, además dependes de otros usuarios para poder hacerte con el archivo, la velocidad de descarga y la disponibilidad del archivo se ven afectados por ello. Pero como lado positivo tiene que no dependes de un servidor del cual pueden ser borrados los archivos por temas de copyright.
    Napster fue la red que popularizó este tipo sistema de descargas. Cuando esta red cerró, el relevo pasó a Gnutella y Kazaa, con la diferencia de que estas redes también permitían la descarga de otros archivos que no fuesen únicamente de audio.


Redes P2P:

Filetopia





Cliente gratuito para Windows que permite compartir archivos, usar un chat, enviar grabaciones de voz, y mensajes instantáneos. También tiene una lista de amigos. Los archivos se pueden compartir tanto de forma global como en canales específicos. Toda comunicación está encriptada usando cifradores como AES, Blowfish e Idea.


Goalbit





Plataforma de código abierto. Es capaz de distribuir videos en directo de muy alta calidad. Su principal componente, el reproductor Goalbit, es un software gratuito y por lo tanto lanzado bajo la licencia GNU GPL. Básicamente hace posible que se pueda hacer streaming, basándose en un protocolo BitTorrent.


MUTE




Es una red de intercambio que busca sobretodo el anonimato. Es de código abierto, multiplataforma y de dominio público. Fue desarrollado usando un algoritmo basado en la optimización de colonia de hormigas -algoritmos-.

TOR



Aunque no es realmente P2P puede considerarse como tal. Software gratuito, de código abierto y multiplataforma que permite el anonimato y navegar sin censura de manera completamente libre y confidencial, respetando así la privacidad de los usuarios. Haciendo que su localización no pueda ser descubierta por nadie -teóricamente-.
Su nombre es un acrónimo de “The Onion Router”, que hace referencia a los enrutamientos de cebolla, que separan el mensaje de la identificación del usuario, consiguiendo así el anonimato.


Conclusión.


Ambos métodos de descarga -directa y P2P- tienen sus ventajas e inconvenientes, así que la elección de uno u otro depende más de las preferencias personales que otra cosa.
En mi caso suelo preferir las descargas directas, porque son más rápidas y realmente no descargo tantos archivos como para que me moleste el límite que el servidor imponga. Pero sí es cierto que en algunas ocasiones he de recurrir a clientes P2P porque al ser un número de descargas elevado me resulte más cómodo y más rápido, o porque no encuentro lo que estaba buscando en descarga directa.



Bibliografía.
http://en.wikipedia.org/wiki/Tor_%28anonymity_network%29
http://es.wikipedia.org/wiki/Encaminamiento_de_cebolla
 
 

DINERO P2P; EL BITCOIN

INTRODUCCIÓN:

El Bitcoin es un protocolo de red P2P, una criptodivisa, en definitiva, dinero electrónico que se puede transferir de forma directa.

Al utilizar la red P2P, utiliza un código abierto permitiendo operar sin necesidad de una autoridad económica central o un banco.

Actualmente, bitcoin es un proyecto muy novedoso y ha de ser tratado con cautela, como si de una versión beta se tratase. 

En este momento, el precio de un bitcon equivale a 327.81 €

USOS:

Para poder utilizar este modo de pago, se debe de instalar un peograma, un monedero virtual, en una computadora o dispositivo. Ese software, genera unas direcciones similares a un correo electrónico, a cuyas direcciones se puede recibir o enviar el dinero electrónico. Un funcionamiento similar a un email, pero sin una dirección de correo fija.

Cuando se "mina", es decir, se crea el bitcoin, se puede proceder a la transferencia. Se denomina "minero", a la primera persona que crea un bitcoin para enviarla a un tercero. Esa moneda, queda registrada en un bloque con un código identificador o "hash". Estos datos son criptográficos, y se almacenan cronológicamente, formando cadenas, desde el primer creador del bitcoin hasta el actual dueño. 

Cada nodo de la red P2P que crea un bitcoin, genera unos bloques con su historial y su código identificador.



La transacción no es válida hasta que la cadena de datos criptográficos creada anteriormente se verifica con una lista pública y anónima, que contiene las transacciones previas. Una vez aceptada la moneda, se valida la transacción y se crea un nuevo código identificador.

Los monederos digitales poseen una clave de seguridad fija que se utiliza para firmar o verificar las transacciones que se van a realizar.

CONCLUSIONES:

El bitcon utiliza las redes P2P, por lo que es un sistema libre, público y no pertenece a ningún país o es regulado por una institución económica. 

El problema es que, debido al anonimato de los pagos y a su seguridad, fomenta el uso ilícito de la moneda virtual; tráfico de armas, venta de estupefacientes, blanqueo de capitales, evasión de impuestos, etc. Es complicado rastrear el fraude y las cuentas y transacciones permanecen en el anonimato.

Las autoridades bancarias muestran su preocupación ya que el bitcoin es muy volátil, es decir, que puede fluctuar su valor de manera muy drástica. En otras palabras, en poco tiempo, puede ganar o perder su valor frente a otra moneda de manera desmesurada.

A pesar de su seguridad, no se puede garantizar que un hacker no se pueda hacer con el dinero de un usuario, en este caso, las empresas de divisas digitales no se hacen cargo del problema.

El atractivo de este protocolo, de este dinero virtual, es la libertad, ausencia de intermediarios y la independencia de gobiernos o autoridades bancarias. Sin embargo, estas características que pueden ser muy beneficiarias para el usuario, si se emplean de manera egoísta y para el beneficio propio, pueden traer consecuencias nefastas. 

BIBLIOGRAFÍA:

https://bitcoin.org/es/

http://elpais.com/tag/bitcoin/a/

http://es.wikipedia.org/wiki/Bitcoin

http://www.queesbitcoin.info/

http://www.bitcoinspain.info/

- Redes de área local, componentes y protocolos -




Introducción.

Las redes LAN se utilizan para conectar ordenadores ya sean personales o de trabajo con el fin de intercambiar información y recursos entre sí, haciendo la comunicación más fácil y rápida. Estos ordenadores estarán localizados físicamente a poca distancia unos de otros -entendiéndose por poca distancia unos cuantos metros-.

Este tipo de redes son los más simples en general, tanto a la hora de tirar el cableado como de administrarla, por lo que suele haber pocos errores en ellas y si se da el caso de que los haya, no será muy complicado encontrarlos y resolverlos.

La velocidad de transmisión de datos que puede llegar a alcanzar este tipo de red está entre los 10Mbps y 100Mbps.

Desarrollo.

Hay tres tipos de redes de área local según varios criterios:
  • Según la técnica de transmisión: están las redes punto a punto y las de difusión.
  • Según el método de acceso al medio: están las Token y las CSMA.
  • Según su topología: de estrella, de bus, de anillo, mixta...

Componentes de un área local:
  • Servidor: Es el ordenador -u ordenadores- que se encargará de prestar los servicios al resto de ordenadores -clientes-. Será el que almacene los datos, el que se encargue de gestionar la red y el que tenga la conexión externa directa.
  • Estación de trabajo: El resto de ordenadores de la red. Pueden acceder a los recursos que se comparten en la misma.
  • Gateway/puerta de enlace/pasarela: Se encarga de traducir los distintos protocolos que llegan a él, haciendo así posible la comunicación. Es también el encargado de que las redes LAN puedan tener una conexión con el exterior. Debe tener dos tarjetas de red.
  • Bridge/puente de red: Es un dispositivo que permite conectar múltiples segmentos de red como una sola, pudiendo así compartir información entre ellas. Permite ampliar redes si estas han llegado ya a su tope de equipos o los ordenadores están demasiado alejados como para pertenecer a la red sin su ayuda.
  • Tarjeta de red/NIC: Periférico que hace posible la comunicación entre distintos ordenadores. Cada tarjeta tiene un número único de 48 bits que recibe el nombre de dirección MAC, que será, por decirlo de alguna forma, la dirección de red verdadera del ordenador y que por supuesto, es estática.
  • El medio: Formado por el cableado y los conectores que se encargaran de unir físicamente la red. Los cables más comunes son el par trenzado, el coaxial y la fibra óptica.

Protocolo TCP/IP.

Estos protocolos son una serie de normas que deben cumplir lo siguiente:

  • Tienen que permitir localizar el ordenador.
  • Tienen que permitir realizar una conexión con otro ordenador.
  • Tienen que permitir que se intercambie información de forma segura entre varios equipos sin importar que sean MAC, PC...


Estos protocolos han sido divididos en niveles para poder realizar todas las conexiones necesarias, ya que la comunicación entre ordenadores es bastante compleja. Además así los problemas que puedan surgir se solucionarán de manera más rápida al tener que buscar en únicamente un nivel en particular.

Esta división consta de cinco niveles, cuatro de software y uno de hardware. A continuación hablaré un poco de cada uno.

1. Nivel de aplicación: Es el nivel más alto. En él están las aplicaciones que acceden a servicios vía internet. Estos servicios, serán sustentados por protocolos como el FTP, que es el que permite la transferencia de archivos entre varios ordenadores, o como el SMTP, que se encarga de sustentar el correo electrónico.

2. Nivel de transporte: Este nivel se encarga de proporcionar la comunicación necesaria entre los ordenadores de origen y destino.
Además, la información se dividirá en paquetes, añadiendo datos para el control de errores y de flujo, para después pasárselo al siguiente nivel -de red- junto a la información original y la dirección de destino.
Para que todo este proceso se lleve a cabo, entran en juego dos protocolos:

  • UDP: Que añade únicamente la información necesaria para la comunicación entre origen y destino. Se emplea sobretodo para tareas de control. Si es más importante la rapidez que la fiabilidad, se recurre a este protocolo.
  • TCP: Es el que hace que el transporte de la información sea fiable, pudiendo llegar a enviar muchísima información sin problemas, teniendo por seguro que llegará de manera íntegra.

3. Nivel de red: Pasa la infomación recibida por el nivel anterior a datagramas -paquetes de datos- IP. En este nivel se usan los siguientes protocolos:

  • IP: Protocolo no orientado a la conexión donde además la información tiene un tamaño máximo. Los datagramas son tratados de forma individual, pudiendo tomar rutas distintas y llegar en distinto tiempo a pesar de haber sido enviados a la vez. No es un protocolo fiable, porque no corrige ni informa de problema alguno. Con este protocolo se añade más información necesaria para la entrega de los datos -como la dirección IP-.
  • ICMP: Controla e informa de errores que pudiese haber en niveles anteriores. Estos datagramas son especialmente usados por dispositivos como las puertas de enlace para recibir la información necesaria del estado de la red -posibles congestiones, errores, cambios de ruta...-.
  • IGMP: Íntimamente ligado al protocolo IP. Se usa en dispositivos que usan IP multicast – variación del protocolo IP que permite usar datagramas con varios destinatarios distintos-.
  • ARP: Para que haya una conexión entre distintos ordenadores, estos necesitan conocer la dirección física -MAC- del otro y la lógica -IP-. Este protocolo se lleva a cabo cuando se conoce la lógica únicamente y se quiere sacar la física. Para ello, envían una petición de este tipo a todos los ordenadores conectados a esa red, y este protocolo hará que sólo la dirección IP buscada conteste a esta petición.
  • RARP: Al revés que el anterior. Este se usa cuando se conoce la dirección física, pero no la lógica.
  • BOOTP: Este protocolo es complementario del anterior. Además de obtener la dirección IP del solicitante, da información adicional que facilita la movilidad y el mantenimiento de los dispositivos.

4. Nivel de enlace.

Este nivel es el que recibe los datagramas del nivel de red, para después transmitirselos al hardware de la red -nivel 5-. En este nivel se usan protocolos como el DLC (IEEE 802.2), Frame Relay, etc.



Conclusión.

Las redes de área local me parecen una muy buena opción sobretodo para empresas, porque mantienen todos los ordenadores conectados entre sí, mejorando la velocidad de trabajo, permitiendo obtener la información al momento.
Además son sencillas de montar, de mantener y más aún de usar, porque los usuarios de la misma realmente no tendrán que hacer nada por ella y sólamente disfrutarán de sus ventajas.



Bibliografía.




RADIOFRECUENCIA: TERMINALES Y TAGS

INTRODUCCIÓN:

Es una tecnología que conecta por radio, mediante ondas electromagnéticas sin usar cables, un dispositivo a otro, permitiendo el intercambio de información.

Las terminales, pueden ser dispositivos fijos o móviles, similares alas PDAs, que almacenan y transfieren información entre un tag o etiqueta RFIF y el sistema central.

Los Tags o etiquetas RFID, son pequeños dispositivos o etiquetas que pueden ser leídos por los terminales y obtener la información que contienen.

USOS:

Sus usos son muy variados.

En logística, se utiliza para leer la información que las etiquetas proporcionan de cada producto, ya sea proveedor, unidades en stock, pedidos, localización dentro de un almacén, etc.

Es también importante el uso de la radiofrecuencia en el sector textil, para controlar el stock, evitar hurtos o consultar el almacén conectando un dispositivo móvil al sistema central sin necesidad de estar físicamente en el propio almacén. 

Actualmente, se está potenciando el uso de chips y su lectura por radiofrecuencia. El caso más común, es el implante de un chip a los perros que, mediante una lectura con un terminal apropiado, podemos obtener los datos del animal gracias a la conexión inalámbrica con el sistema central que posee la información. 

Además, se están utilizando chips implantados en humanos para obtener información médica, policial o la verdadera identidad de los sujetos implantados. 


CONCLUSIONES:

Este sistema de red inalámbrica necesita una importante inversión inicial. Sin embargo, su instalación es rápida, permite gran movilidad, ahorra costes de consultar directamente el archivo central, es flexible en cuanto a la reubicación de los equipos y no necesita instalación de cableado.

Sin embargo, el área de cobertura, el alcance que tiene la red, es limitada. La velocidad de transmisión de datos no es demasiado rápida. El uso comercial de esta tecnología es relativamente nuevo, permitiendo, de momento, solamente el intercambio de datos. 

Hay controversia en el uso de esta tecnología relacionada con los implantes de chips a humanos. Estos chips no son más que tags o etiquetas RFIF que, mediante su lectura con un terminal podemos conectarnos con el archivo central que contiene los datos de un sujeto. Por tanto, existe el riesgo de pérdida de privacidad y control de las personas, ya que con una simple consulta podemos saber toda la historia de la persona implantada. También es cierto, que la consulta de sus datos puede llegar a salvar vidas, por ejemplo, obteniendo de manera inmediata su historial clínico. 

Relacionado con esto último, también existe el problema de la seguridad, puesto que el archivo principal, el acceso a la base de datos, queda expuesto al robo o modificación de los datos por error o de manera intencionada.

BIBLIOGRAFÍA:

http://es.slideshare.net/guest3b8998/radio-frecuencia-basica

http://es.wikipedia.org/wiki/RFID

http://www.pc-doctor.com.mx/Radio%20Formula/temas/RFID%20ETIQUETAS%20DEL%20FUTURO.htm

http://www.ecured.cu/index.php/Identificaci%C3%B3n_por_radiofrecuencia

http://www.eldiario.es/hojaderouter/tecnologia/hardware/microchip-RFID-cyborg-implantes-NFC_0_301320505.html

REFORMA DE LA LEY DE PROPIEDAD INTELECTUAL

INTRODUCCIÓN:

El jueves 30 de Octubre de 2014, el Congreso aprobaba la reforma parcial de la Ley de Propiedad Intelectual, con los únicos votos a favor del partido en el Gobierno, que entrará en vigor el 1 de Enero de 2015. 

Las novedades más destacadas son la llamada Tasa Google y multas de hasta 600.000 € para páginas que enlacen a contenidos piratas.

PUNTOS IMPORTANTES DE LA NUEVA LEY:

La Tasa Google o Tasa AEDE (Asociación de Editores de Diarios Españoles), es un canon o tasa monetaria que se impone a los que agreguen un titular y un pequeño texto de noticias que se enlacen en el buscador Google o en Google News. Google News es un servicio web que hace un verdadero periódico digital constituido por titulares y pequeñas noticas agregadas o enlazadas.
Esta tasa, aunque en principio sólo afectará a Google News, pude afectar a otras webs agregadoras de noticias, lo que posiblemente supondría la negativa a pagar tal tasa y se marcharía de España. Cómo usuarios, nos afectaría en el tiempo de búsqueda, ya que sería más difícil conseguir información actual.


En cuanto a la descarga de películas o vídeos, o el visionado de los mismos de manera online, no es ilegal por parte del usuario, no se le pude aplicar ninguna multa o canon. Podemos seguir viendo y descargando películas pero nos será mucho más difícil, aún, encontrar webs y enlaces que nos lo permitan. 

La ley, sólo perseguirá a las páginas web que difundan contenidos. En este caso, la ley española choca con la ley y anteriores sentencias de la Unión Europea.

Si como usuarios tenemos una página web o un blog, podemos enlazar y referenciar el contenido de terceros, el usuario no puede ser perseguido por ello. Sin embargo, como sucede ahora, si un usuario sube información íntegra de terceros y sin previa autorización, puede llegar a ser sancionado.

Las Universidades españolas deberá pagar una tasa por subir información, material académico para los alumnos, a sus aulas virtuales. Sin embargo, los autores de este material que manejan las Universidades, podrán decidir si cedérselo a la Universidad para el fin académico o cobrar el canon. 

Por otro lado, la nueva ley permitirá utilizar a los centros educativos fragmentos de información, imágenes, pinturas, etc. de forma gratuita.


Si los medios de comunicación enlazan un titular y una fotografía o un pequeño texto de otro medio, podrán estar obligados a pagar una tasa.


CONCLUSIONES:

La reforma de la ley de Propiedad Intelectual, se ha aprobado en el Congreso sin consenso alguno, ni se ha preguntado a usuarios, medios de comunicación o autores qué medidas se podrían tomar o consensuar para que la ley pueda beneficiar a todos. 

Algunas opiniones critican esta ley como beneficiaria para grandes multinacionales, para los intereses de los lobbies, ya que esta reforma de ley, en parte, se fundamenta en la teoría de que las grandes empresas manejan información susceptible de ser robada o copiada. 

El cobro de una tasa a las Universidades, podría suponer un encarecimiento, aún mayor, de las tasas que tienen que pagar los estudiantes, por lo que podría privar a personas de acceder a este tipo de educación.

Por otro lado, es cierto que hay que proteger la propiedad intelectual y las ideas propias de un autor, pero con ello no podemos limitar la difusión de la información, la libre circulación de las ideas y la libertad de expresión. La democratización del acceso a la información, que trajo consigo Internet, se podría perder.

Por último, tenemos que ser conscientes de los movimientos sociales que han ocurrido y están ocurriendo en nuestro país y en gran parte de el mundo. Muchos de esos movimientos se han fraguado u organizado a través de Internet, a través del uso de la información. Esta ley pretende "cazar" a los llamados piratas, pero debemos preguntarnos qué es lo que se entiende por piratas y si lo que está en juego es la protección de nuestra propiedad intelectual o el derecho de acceso a la información y expresión.

BIBLIOGRAFÍA:

https://www.boe.es/buscar/act.php?id=BOE-A-1996-8930&b=1&tn=1&p=20141105#preambulo

http://elpais.com/tag/ley_propiedad_intelectual/a/

http://www.huffingtonpost.es/2014/10/30/novedades-ley-propiedad-intelectual_n_6075332.html

http://www.elmundo.es/tecnologia/2014/10/29/5450b3caca4741943c8b4572.html


- Software Libre VS Software Propietario -



Introducción.

Software libre es todo aquel que permite que los usuarios lo ejecuten, lo copien, lo distribuyan, lo estudien, lo modifiquen o incluso lo mejoren. En muchas ocasiones se cree que por ser libre, “free” en inglés, es gratuito, y no es así en absoluto. Hay programas que ciertamente lo son, pero otros muchos que no.

Software propietario es aquel que está sujeto a unas leyes de Derechos de Uso, de Redistribución o de Modificación. Básicamente es aquel no puedes modificar o redistribuir sin el permiso del creador del mismo. Dentro de esta categoría también entra aquel software que es parcialmente libre. Y al igual que ocurre con el software libre, hay tanto programas de pago como gratuitos. Es de código cerrado, porque no se comparte el código fuente del programa.

Y luego están el software de código abierto, y el de código cerrado. El software de código abierto, aunque puede parecer lo mismo que el software libre, no lo es. Este tipo de software acepta algunas licencias que la comunidad del software libre creen restrictivas, además, también hay licencias de software libre que el del código abierto no acepta. Aún así, las diferencias son pocas y casi todo el software libre es de código abierto y casi todo el software de código abierto es libre. El software libre se centra más en las libertades propias que el software de código abierto. Luego el software de código cerrado es aquel que no deja libre el código fuente para los usuarios.

Desarrollo.

Software Libre.

¿Cuándo un programa se considera software libre? Cuando cumple con las cuatro libertades:

- Libertad para usar el programa, con cualquier propósito.
- Libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades.
- Libertad de distribuir copias del programa.
- Libertad para mejorar el programa y hacer públicas esas mejoras a los demás, haciendo así que toda la comunidad se beneficie.

Si alguna de estas libertades no se cumple, entonces no es software libre, aunque cumpla tres de las cuatro, no importa. Para considerarlo libre tiene que cumplirlas todas y cada una de ellas, sin excepción.

Licencias.

Son autorizaciones formales -con carácter contractual- que el autor del software da al interesado para que pueda ejercer X acciones sobre el programa en cuestión.


  • Licencias GPL: Una de las más utilizadas (conocida también como Licencia Pública General de GNU). Esta licencia posibilita la modificación y redistribución del software, pero requiere que el software producto -la modificación- tenga esta misma licencia, o sea, que también se pueda modificar y redistribuir.
  • Licencias AGPL: Licencia pública general de Affero. Licencia de copyleft derivada de la GPL. Está diseñada para que la comunidad coopere en caso de que el software sea ejecutado en servidores de red.
  •  Licencias estilo BSD: Principalmente para los sistemas BSD (Berkeley Software Distribution). Tiene menos restricciones que otras licencias, estando muy cercana al dominio público. Permite el uso del código fuente en software no libre.
  • Licencia estilo MPL y derivadas: Licencia de gran valor porque fue la usada por la empresa Netscape para liberar su Netscape Communicator y empezar con el Mozilla.
    Esta licencia promueve la colaboración pero evitando el efecto viral que pueden tener otras licencias como la GPL (el software producto también tiene que compartir esa licencia y así sucesivamente). Aún así, no son tan permisivas como las licencias de tipo BSD.
  • Copyleft: Método general que hace que un programa sea software libre al igual que todas sus versiones modificadas y/o extendidas. Con ello se evita que alguien coja un programa de software libre y lo convierta en privativo.

Ventajas:
  • Suele haber menos malware desarrollado para afectarlos, por aquello de que el número de usuarios que lo usa no es tan grande -a los crackers les interesa infectar a cuanta más gente mejor-.
  • Grandes comunidades que ayudan y dan soporte.
  • Libertad para distribuir copias.
  • Libertad para estudiar su código fuente, modificarlo...
  • Libertad para usarlo como se quiera.


Inconvenientes:
  • No hay garantía por parte del autor.
  • Menos catálogo de juegos.
  • No todas las versiones son estables.


Software Propietario.

Este tipo de software no se puede modificar -ni siquiera se tiene acceso al código fuente-, no se puede distribuir sin permiso del propietario o creador.

La persona o empresa que posee los derechos de autor sobre un software puede controlar y restringir los derechos del usuario sobre el programa en cuestión, lo que quiere decir que el usuario solo podrá ejecutar el software en X condiciones que serán fijadas por el proveedor.

Ventajas:
  • Soporte para casi todo tipo de hardware.
  • Mayor mercado laboral -actualmente-.
  • Facilidad a la hora de comprarlo.
  • Más compatibilidad con juegos y multimedia.
  • Garantía.

Inconvenientes:
  • No se puede modificar.
  • No se puede distribuir.
  • Debido a la popularidad suelen ser más propensos al malware.
  • Restricciones en su uso.
  • El precio de los programas suele ser bastante más elevado.

Conclusión.

Personalmente soy partidaria del uso del software libre, ya no sólo porque -en general- sea más barato que el propietario -o incluso gratis- sino porque creo que está bastante infravalorado, es decir, hay muchísimos programas de software libre que te hacen exactamente lo mismo, sino mejor, que un programa de similares características de software propietario, pero la gente supongo que por ser desconocido simplemente no lo prueba. Y se llevaría una grata sorpresa, porque además de que no dependes de la empresa que ha desarrollado el programa, en internet puedes encontrar un montón de información tanto para usar correctamente ese software aprovechando al máximo sus características como para solucionar problemas que se puedan plantear.
Y a mi personalmente me gusta esa comunidad que hay formada, el hecho de que los mismos usuarios se molesten en ver cómo funciona un programa y en mejorarlo simplemente por el bien de la comunidad y la experimentación, sin esperar realmente nada a cambio.



Bibliografía.