background preloader

Kimono : Turn websites into structured APIs from your browser in seconds

Kimono : Turn websites into structured APIs from your browser in seconds

http://www.kimonolabs.com/

Related:  Outils et AppsScrapingWebsite devOutils & DocAPI

Correspondance entre logiciels libres et logiciels propriétaires Un article de Wikipédia, l'encyclopédie libre. Faisant suite à l'article liste de logiciels libres, cet article est une liste d'alternatives libres proposant des fonctionnalités proche de logiciels propriétaires bien établis dans leur domaine d'application. Cette liste est loin d'être exhaustive et n'a pas pour but de mettre en avant des logiciels particuliers mais seulement de présenter différents logiciels (propriétaires ou libres) dans un même domaine d'application. Présentant les logiciels disponibles sur les systèmes Windows, GNU/Linux, Mac OS et BSD, la liste est divisée en plusieurs catégories ainsi qu'en domaines d'application afin de mieux s'y retrouver.

Quelle techno pour faire du web scraping ? En Ruby j'utilise le Nokogiri3 gem, très efficace.Lorsque la structure du site est complexe j'utilise l'extension Chrome de Kimono4 pour identifier les common patterns/css selectors qui m'intéressent. Demo : Après avoir rajouté gem 'nokogiri' et fait tourner bundle install, créer une rake task (sur Rails créer un fichier: /lib/tasks/scrape.rake).Par exemple pour récupérer tous les sujets de discussion de Human Coders (NB: je ne fais pas ça généralement, mais la démo me paraissait intéressante!): Personnalisez les vidéos YouTube avec un lecteur amélioré Intégrer des vidéos de YouTube sur un site ou sur un blogue est d'une facilité déconcertante. Après tout, il suffit de copier le code d'intégration dans le code HTML pour qu'il soit affiché sur la page. Or, que faire dans les cas où l'on veut mettre l'accent sur une partie précise de la vidéo ou ajouter des annotations soi-même sur une vidéo dont on n'est pas le créateur? Embed Plus offre aux webmestres un lecteur évolué pour les vidéos YouTube. Il est conçu, en premier lieu, pour les blogues WordPress, mais il est tout à fait compatibles avec d'autres sites.

Recueillir des données sur le Web Recueillir des données sur le Web Vous avez tout essayé, et vous n’êtes toujours pas parvenu à mettre la main sur les données que vous voulez. Vous avez trouvé les données sur le web, mais hélas – aucune option de téléchargement n’est disponible et le copier-coller montre ses limites. N’ayez crainte, il y a toujours un moyen d’extraire les données.

Gargl - Créer des API à partir de n'importe quel site web Gargl – Créer des API à partir de n’importe quel site web Attention, les amis, je crois que je tiens l'outil de la semaine. Ça s'appelle Gargl et ça va faire des ravages. Gargl se compose d'une extension Chrome qui permet de tracer les appels faits sur les pages web, de les modifier légèrement pour les standardiser puis avec un générateur, de produire du code Java, JavaScript ou PowerShell qui fera office de connecteur API. Et comme une bonne vidéo vaut tous les bons discours du monde, je vous invite si vous êtes curieux à couper le son de la vidéo ci-dessous et à la regarder en plein écran. Scrollitelling : quel outil pour vos récits multimédias immersifs ? Un an après Snow Fall, les formats multimédias immersifs (parfois baptisés « scrollitelling ») se multiplient sur les sites de presse, et des outils commencent à apparaître pour épauler les journalistes. Plateformes wysiwyg, extensions WordPress, scripts open source à coder : voici un panorama des solutions disponibles à ce jour. ↑1 » Les plateformes en ligne Pas besoin de mettre les mains dans le code… ou si peu. Scrollkit C’est actuellement la plateforme gratuite la plus aboutie.

ImportXml & ImportHtml: Scraper avec Google Spreadsheet Scraper, selon wikipedia c’est « extraire du contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte ». Extraire des données c’est déjà bien, mais dans un tableau google spreadsheet, c’est encore mieux. Pourquoi Scraper des données disponibles sur le web ? Pour 2 raisons principales: Optimiser la structure et le contenu d’un site pour un meilleur référencement A y bien réfléchir, la composition d’un site n’est pas très loin de celle du corps humain. Sa structure, pourrait en être la colonne vertébrale, les organes seraient alors les pages alimentées par le jus de liens des vaisseaux sanguins, le cœur serait naturellement la home. Une vision certainement plus réaliste et plus parlante que l’ensemble des pages regroupées au sein de l’architecture globale d’un site. Mais concrètement qu’est ce qu’un site bien structuré ? Quels sont les avantages en matière de référencement ?

@joelmatriche » Le blog de jo Lorsque des données sont correctement formatées sous forme de tableau dans une page web, il est facile de les importer directement dans une feuille Excel. Et d'automatiser les mises à jour. Exemples : l'importation dynamique de cotations boursières dans une feuille de calcul et la surveillance, depuis Excel, des changements éventuellement apportés à une page web. Exemple 1 : la surveillance d'une page web. Éléments pour la conception des APIs Hypermédias L’article sur Web APIs 101 se terminait en disant que les démarches de conception d’APIs pouvait alors seulement commencer. J’ai pensé qu’une précision sur les éléments de conception des APIs Hypermedia serait utile. Ressources, Représentations & Etats applicatifs HTTP est un protocole de transfert applicatif qui se différencie des autres protocoles de transfert en ce qu’il distingue les Ressources des Représentations.

Related:  InternetCreative appsServices