Accueil > Sites > SPIP-Contrib
Les articles publiés sur le site
-
Curalicious
Un squelette généraliste basé sur la dist, tout particulièrement indiqué pour la veille sur internet (en association avec le plugin curator) Installation Ce plugin s'installe comme tous les plugins. Il nécessite le plugin Social tags et Menu déroulant 2. Présentation Pour exemple, il est utilisé par (...) -
Configurer Sparkpost
25 avril 2016, par erational — Aide sur la configuration des prestataires externes d'envoi d'emails, Toutes versions de SPIP, DocumentationN'hésitez pas à relire le préambule de cette rubrique avant de créer un compte sur une plateforme tierce . Présentation Sparkpost est une société d'envoi de mailing https://www.sparkpost.com/ Sur les petits volumes ( - Aide sur la configuration des prestataires externes d'envoi d'emails / Toutes (...) -
Configurer Mailjet
25 avril 2016, par erational — Aide sur la configuration des prestataires externes d'envoi d'emails, Toutes versions de SPIP, DocumentationN'hésitez pas à relire le préambule de cette rubrique avant de créer un compte sur une plateforme tierce . Après avoir créé votre compte Étape 1 : Ajouter votre domaine Aller sur la page : https://app.mailjet.com/account/domain Suivre les instructions pour ajouter les paramètres SPF et DKIM sur (...) -
Raccourcisseur d’URL
25 avril 2016, par cyp — Raccourcisseur d'URL, SPIP 3.1, SPIP 3.0, Espace privé, Statistiques, Réseau social, Plugins, Licence GPL, Tout PublicCe plugin est destiné à créer des raccourcis de vos URLs et de visualiser le nombre de clics fait sur une URL raccourcie. Ce plugins nécessite le plugins geoip (v1) et utilise le plugins d3js présent sur la zone de SPIP. Ce plugin s'installe comme tous les autres plugins, il faut prendre en compte (...) -
cisec : détecte et bannit les scanners de vulnérabilités
13 avril 2016, par Equipement — Autres plugins, SPIP 3.1, SPIP 3.0, SPIP 2.1, Plugins, Creative Commons by-nc-saLes scanners de vulnérabilité de site web sont des logiciels qui analysent les pages d'un site web (“crawling”), puis effectuent des requêtes HTTP en ajoutant des codes malicieux dans l'URL (ainsi que dans les variables POST, etc.) et analysent le contenu de la page obtenue pour détecter si le code (...)