Installation d'un noyau Debian chez ovh.
Sauter à la navigation
Sauter à la recherche
Sommaire
1 Intérêts
2 Prérequis
3 Choix du noyau
3.1 Renommer le noyau ovh
4 Installation du noyau 2.6.32-5-amd64
4.1 Mise à jour de grub
4.2 Vérifications
4.3 Terminé! Rebooter le serveur
HTML Minifier Minify HTML and any CSS or JS included in your markup
Pour avoir thunderbird en 64bit
Robots.txt
Introduction au protocole d'exclusion des robots
Le protocole d'exclusion des robots, plus connu sous le nom de robots.txt, est une convention visant à empêcher les robots d'exploration (web crawlers) d'accéder à tout ou une partie d'un site web.
Le fichier robots.txt, à placer la racine d'un site web, contient une liste de ressources du site qui ne sont pas censées être explorées par les moteurs de recherches. Ce fichier permet également d'indiquer aux moteurs l'adresse du fichier sitemap.xml du site.
Par convention, les robots consultent le fichier robots.txt avant d'explorer puis d'indexer un site Web. Lorsqu'un robot tente d'accéder à une page web, comme par exemple http://www.mon-domaine.fr/page.html, il tente d'accéder en premier lieu au fichier robots.txt situé à l'adresse http://www.mon-domaine.fr/robots.txt
Comment créer le fichier robots.txt
Le fichier robots.txt doit être placé obligatoirement à la racine de votre site ; si celui-ci est placé dans un répertoire par exemple, les moteurs ne le découvriront pas et ne suivront pas ses règles et paramètres. Par ailleurs, le fichier doit être d'une taille inférieure à 62 Ko (cf. Taille maximale du fichier robots.txt).
Si le domaine de votre site est http://www.mon-domaine.fr/, le fichier robots.txt doit se situer obligatoirement à l'adresse suivante http://www.mon-domaine.fr/robots.txt
A noter qu'il est également nécessaire que le nom du fichier robots.txt soit en minuscule (pas de Robots.txt ou ROBOTS.TXT).
Voir également les ressources pour la création d'un fichier robots.txt sur un serveur en HTTPS ou dans le cas de sous-domaines.
Le contenu du fichier robots.txt
Exemple de contenu d'un fichier robots.txt :
User-agent: *
Disallow:
APT Browse — know your packages
A web browser for the contents of Debian (and Ubuntu) packages.
Query
Logo
Process Hacker
A free, powerful, multi-purpose tool that helps you monitor system resources, debug software and detect malware.
Official Website
Nightly Builds
System requirements
Windows 7 or higher, 32-bit or 64-bit.
Features
A detailed overview of system activity with highlighting.
Graphs and statistics allow you quickly to track down resource hogs and runaway processes.
Can't edit or delete a file? Discover which processes are using that file.
See what programs have active network connections, and close them if necessary.
Get real-time information on disk access.
View detailed stack traces with kernel-mode, WOW64 and .NET support.
Go beyond services.msc: create, edit and control services.
Small, portable and no installation required.
100% Free Software (GPL v3)
Defensive BASH Programming
Nov 14th, 2012 | Comments
Here is my Katas for creating BASH programs that work. Nothing is new here, but from my experience pepole like to abuse BASH, forget computer science and create a Big ball of mud from their programs.
Here I provide methods to defend your programs from braking, and keep the code tidy and clean.
Immutable global variables
Try to keep globals to minimum
UPPER_CASE naming
readonly decleration
Use globals to replace cryptic $0, $1, etc.
Globals I allways use in my programs:
Use Bash Strict Mode (Unless You Love Debugging)
Let's start with the punchline. Your bash scripts will be more robust, reliable and maintainable if you start them like this:
#!/bin/bash
set -euo pipefail
IFS=$'\n\t'
Past Incidents
Apr 23, 2020
Incident on 2020-04-22 23:59 UTC
Resolved - This incident has been resolved.
Apr 23, 00:30 UTC
Update - We have deployed a fix and are monitoring recovery.
Apr 23, 00:09 UTC
Investigating - We are investigating elevated errors starting GitHub Actions workflows.
Apr 22, 23:59 UTC
Is BGP safe yet? No.
Border Gateway Protocol (BGP) is the postal service of the Internet. It’s responsible for looking at all of the available paths that data could travel and picking the best route.
Unfortunately, it isn’t secure, and there have been some major Internet disruptions as a result. But fortunately there is a way to make it secure.
ISPs and other major Internet players (Comcast, Sprint, Verizon, and others) would need to implement a certification system, called RPKI.