Archive for GNU/Linux

mayo 22nd 2015

Habilitar el usuario root en Ubuntu

Número de lecturas: 2710
{lang: 'es-419'}

Los que administramos sistemas amamos usar el usuario root, pues instalar sudo en un servidor no es algo que me guste hacer, porque da pié (oportunidad) a que hayan más usuarios con privilegios administrativos en el server 😉

El problema es que cuando llegamos a casa y estamos usando una distro como Ubuntu, el usuario root no está habilitado… ya saben, Canonical en su afán de que no dañemos el sistema simplemente no nos deja usar root directamente … ¬_¬ … no sé ustedes, pero esto a mí se me parece un poco a Windows jeje.

Habilitar root en Ubuntu

Los que deseen tener root habilitado es simple, con 2 comandos podremos hacerlo.

sudo -i

Esto nos permitirá acceder como root, claro, luego de que pongamos el password de nuestro usuario.

sudo passwd root

Esto nos cambiará el password del usuario root, y listo … ya podemos presionar Ctrl+F1 y poner como usuario root y como password el que acabamos de especificar.

¿y si quiero volver a deshabilitar root?

Con un comando bastará para volver a deshabilitarlo:

sudo passwd -dl root

Fin!

Fuente:

http://hipertextual.com/

septiembre 23rd 2014

Configurar correctamente el archivo .htaccess en WordPress

Número de lecturas: 6979
{lang: 'es-419'}

 El archivo .htaccess es un archivo oculto que está ubicado en el directorio raíz de nuestro blog. En algunas ocasiones es posible que tras realizar una instalación de WordPress este archivo no exista, por lo que debemos crearlo a mano accediendo a nuestro sitio mediante FTP.

Se trata de un archivo extremadamente importante para el correcto funcionamiento de WordPress, pero también nos ayuda a proteger nuestro, y nos permite especificar instrucciones para realizar muchas tareas que redundan en beneficio de la indexación del blog en los buscadores y la utilización de herramientas externas como complemento del blog.

Una vez creado el archivo debemos hacerlo de sólo lectura, para evitar problemas mayores. Esto se hace editando los permisos del archivo en tu aplicación o gestor FTP y cambiándolos a 444.

Una vez hecho esto debemos editar el archivo y añadir las siguientes instrucciones para que WordPress opere a la perfección:

<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>

Pero el archivo .htaccess sirve para muchas cosas más. Veamos algunas.

Proteger el acceso al propio archivo .htaccess

Para evitar que un atacante malicioso pueda modificar o insertar código en el propio archivo podemos añadirle, justo al principio, estas líneas:

# protege el archivo htaccess

order allow,deny
deny from all

Redireccionar permanentemente el feed a Feedburner

Si usas Feedburner para gestionar el feed RSS del blog deberías establecer una redirección permanente para indicar a los agregadores que deben usar el feed de Feedburner. Esto se hace añadiendo estas líneas:


RewriteCond %{REQUEST_URI} ^/feed/ [NC]
RewriteCond %{HTTP_USER_AGENT} !(FeedBurner|FeedValidator) [NC]
RewriteRule .* http://feeds.feedburner.com/Your-Site-Userame [L,R=301]

Bloquear comentarios spam

También es posible bloquear el spam que llega al blog en forma de comentarios. De ese modo nos evitamos algo de carga al servidor, y tiempo de moderación. Para ello añadiremos estas líneas:


RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{REQUEST_URI} .wp-comments-post.php*
RewriteCond %{HTTP_REFERER} !.*yourblog.com.* [OR]
RewriteCond %{HTTP_USER_AGENT} ^$
RewriteRule (.*) ^http://%{REMOTE_ADDR}/$ [R=301,L]

Dirigir a los motores de indexación hacia robots.txt y evitar a los bots maliciosos

Uno de los principales problemas de cualquier sitio web son los bots maliciosos que pueden sobrecargar nuestro servidor realizando muchas peticiones de indexación. Para evitar esto y además dirigir adecuadamente a los motores ‘buenos’ a nuestro archivo robots.txt (archivo de configuración para motores de búsqueda), insertaremos este código:


RewriteBase /
RewriteCond %{REQUEST_URI} !^/robots.txt$ [NC]
RewriteCond %{REQUEST_URI} robots.txt [NC]
RewriteRule .* http://your-site.com/robots.txt [R=301,L]

Fuente:

labrujulaverde.com

agosto 8th 2014

Curso de Linux para novatos, brutos y extremadamente torpes

Número de lecturas: 6706
{lang: 'es-419'}

Un curso interesante en formato .pdf

El libro es bastante extenso, consta de 476 páginas en las cuales encontraremos el siguiente contenido:

– Parte (I) Iniciacicion Al S.O. Linux
– A Quien Va Dirigido Este Curso
– Introduccion A Linux
– Algunos Conceptos Básicos
– El Manual Del Sistema
– La Shell
– Introducción A Los Procesos
– Más Sobre Procesos Y Señales
– Sistema De Ficheros (Primera Parte)
– Sistema De Ficheros (Segunda Parte)
– Sistema De Ficheros (Tercera Parte)
– Algunos Comandos Útiles
– Expresiones Regulares
– El Editor Vi (Primera Parte)
– El Editor Vi (Segunda Parte)
– Programacion Shell­script (Primera Parte)
– Programacion Shell­script (Segunda Parte)
– Ejercicios Resueltos De Shell­script
– Parte (Ii)  Avanzado De Linux
– Introducción A La Segunda Parte Del Curso
– La  Virtual En Linux
– La Primera Instalacion De Linux
– Terminales
– Programacion De Tareas En El Tiempo
– Introduccion A Redes
– El Arranque En Linux Y Como Solucionar Sus Problemas (Primera Parte)
– El Arranque En Linux Y Como Solucionar Sus Problemas (Segunda Parte)
– Consejos Generales Para Compilar Kernels

Link: Curso de Linux para novatos, brutos y extremadamente torpes

Archivo PDF: Link descarga

Fuente:

puntogeek.com

julio 25th 2014

Stack Overflow como soporta tanto trafico (video)

Número de lecturas: 4180
{lang: 'es-419'}

Es increible el trafico y el numero de visitas que tiene Stack Overflow navegando encontre un post interesante que hace referencia a datos muy relevantes:

  • La red que engloba Stack Overflow (unos 110 sitios) tiene en torno a cuatro millones de usuarios, 40 millones de respuestas y 560 millones de páginas vistas al mes. En total está rankeada(perdón por el anglicismo) en el número 54 en términos de tráfico.
  • Para todo esto sólo tienen 25 servidores… y calculan que están infrautilizados, que con cinco podrían tirar.
  • 11 servidores web… con IIS
  • Y es que emplean bastantes productos Microsoft. ¿Razones? Porque la arquitectura funciona y es relativamente barata.
  • No están en La Nube (ese ente). ¿Razones? Les costaría una fortuna y les ralentizaría. Actualmente tienen una carga en sus servidores SQL Server de 384 GB de RAM y 2TB de SSD. Hagamos cuentas.
  • Escalabilidad como piedra filosofal.
  • MS SQL, Redis HAProxy, ElasticSearch.
  • 110000 líneas de código (tampoco son tantas).

Aca el video prometido:

YouTube Preview Image

Fuente:

http://www.genbetadev.com/desarrollo-web/de-como-las-tripas-de-stack-overflow-aguantan-el-exito

http://highscalability.com/blog/2014/7/21/stackoverflow-update-560m-pageviews-a-month-25-servers-and-i.html