All tuto for webmaster.
tools and more info
GIT !
Robots.txt
Introduction au protocole d'exclusion des robots
Le protocole d'exclusion des robots, plus connu sous le nom de robots.txt, est une convention visant à empêcher les robots d'exploration (web crawlers) d'accéder à tout ou une partie d'un site web.
Le fichier robots.txt, à placer la racine d'un site web, contient une liste de ressources du site qui ne sont pas censées être explorées par les moteurs de recherches. Ce fichier permet également d'indiquer aux moteurs l'adresse du fichier sitemap.xml du site.
Par convention, les robots consultent le fichier robots.txt avant d'explorer puis d'indexer un site Web. Lorsqu'un robot tente d'accéder à une page web, comme par exemple http://www.mon-domaine.fr/page.html, il tente d'accéder en premier lieu au fichier robots.txt situé à l'adresse http://www.mon-domaine.fr/robots.txt
Comment créer le fichier robots.txt
Le fichier robots.txt doit être placé obligatoirement à la racine de votre site ; si celui-ci est placé dans un répertoire par exemple, les moteurs ne le découvriront pas et ne suivront pas ses règles et paramètres. Par ailleurs, le fichier doit être d'une taille inférieure à 62 Ko (cf. Taille maximale du fichier robots.txt).
Si le domaine de votre site est http://www.mon-domaine.fr/, le fichier robots.txt doit se situer obligatoirement à l'adresse suivante http://www.mon-domaine.fr/robots.txt
A noter qu'il est également nécessaire que le nom du fichier robots.txt soit en minuscule (pas de Robots.txt ou ROBOTS.TXT).
Voir également les ressources pour la création d'un fichier robots.txt sur un serveur en HTTPS ou dans le cas de sous-domaines.
Le contenu du fichier robots.txt
Exemple de contenu d'un fichier robots.txt :
User-agent: *
Disallow:
Defensive BASH Programming
Nov 14th, 2012 | Comments
Here is my Katas for creating BASH programs that work. Nothing is new here, but from my experience pepole like to abuse BASH, forget computer science and create a Big ball of mud from their programs.
Here I provide methods to defend your programs from braking, and keep the code tidy and clean.
Immutable global variables
Try to keep globals to minimum
UPPER_CASE naming
readonly decleration
Use globals to replace cryptic $0, $1, etc.
Globals I allways use in my programs:
Ce site vise à vous apprendre les bases de CSS utilisées pour structurer n'importe quel site web.
Je suppose que vous savez déjà ce que sont les sélecteurs, les propriétés et les valeurs. Et vous connaissez probablement une ou deux choses sur les mise en page, même si ça peut vous donner envie de vous arracher les cheveux. Si vous voulez apprendre le HTML et le CSS depuis le début, vous devriez allez faire un tour sur ce tutoriel. Sinon, voyons si nous pouvons vous éviter de vous énerver sur votre prochain projet.
dev amster webmaster
Mauya!
We tried to learn other languages, but since we didn't find a for them it might not say "Welcome". We extend our deepest apologies.
How do I use this thing?
See the input box by the logo? Just type in a command and see the magic happen!
Try osx/say, linux/du, or simply man.
Some commands are widely available with the same interface, some other have variants per operating system. Currently the tldr-pages project splits comman into 4 categories: common, linux, osx, and sunos.
du, for example, is available under both linux and osx.
What is ?
This is a web client for a project called tldr-pages; they are a community effort to simplify the beloved man pages with practical examples.
Retina revolution
Très intéressant, comme idée: Des images de meilleure qualité, mais avec des fichiers plus petits, le tout en JPEG standard ?
Au lieu d'utiliser une image 320x200 à 80% de qualité, mettez une image 4 fois plus grande (600x400) à 40% de qualité (ou même 30%), mais réduite à l'affichage de 50%.
Assez étonnamment, la qualité semble meilleure sur les contours. Autre avantage: Sur les écrans haute résolution (genre Retina), la qualité d'affichage est bien meilleure, le tout sans avoir à faire de bidouilles foireuses (genre détection de user-agent).
L'effet de bord de cette méthode est d'augmenter la consommation mémoire (puisque les images sont plus grandes décompressées).