background preloader

La Sagesse des foules

La Sagesse des foules
Le titre est une allusion à la Folie des foules (en) de Charles Mackay, publié en 1841. Thèse[modifier | modifier le code] Il est communément admis que les gens adoptent certains comportements particuliers lorsqu'ils se réunissent en foule. Ainsi, selon la Psychologie des Foules de Gustave Le Bon, « l'individu se trouve altéré par la foule, devient surtout soumis à l’inconscient, et régresse vers un stade primaire de l’humanité[1]. » Cette constatation peut entraîner une perception négative du comportement de l'humain en foule. Pierre Desproges exprime par exemple que lorsque des hommes sont réunis, « leur intelligence ne s'additionne pas, elle se divise[2] ». La Sagesse des foules traite de plusieurs situations au cas inverse, où la perception et la résolution d'un problème sont plus efficaces par une foule que par n'importe quel individu en faisant partie ou non. Surowiecki discute alors ce qu'il considère comme la recette pour le succès dans l'intelligence de foule :

Manifeste du Web indépendant Le Web indépendant, ce sont ces millions de sites offrant des millions de pages faites de passion, d’opinion, d’information, mises en place par des utilisateurs conscients de leur rôle de citoyens. Le Web indépendant, c’est un lien nouveau entre les individus, une bourse du savoir gratuite, offerte, ouverte ; sans prétention. Face aux sites commerciaux aux messages publicitaires agressifs, destinés à ficher et cibler les utilisateurs, le Web indépendant propose une vision respectueuse des individus et de leurs libertés, il invite à la réflexion et au dialogue. Pourtant le Web indépendant et contributif est menacé ; menacé par la fuite en avant technologique qui rend la création de sites de plus en plus complexe et chère, par l’écrasante puissance publicitaire du Web marchand, et bientôt par les accès dissymétriques, les Network Computers, les réseaux privés, le broadcasting, destinés à cantonner le citoyen au seul rôle de consommateur.

Théorie de la simplicité La théorie de la simplicité est une théorie du domaine des sciences cognitives qui cherche à expliquer l'intérêt des situations et des événements pour l'esprit humain. Cette théorie est fondée sur les travaux scientifiques de Nick Chater (en)[1], Paul Vitanyi[2], Jacob Feldman[3], Jean-Louis Dessalles[4],[5], et Jürgen Schmidhuber (en)[6]. Elle fait l'hypothèse que les situations intéressantes sont celles qui apparaissent de manière inattendue comme les plus simples aux yeux de l'observateur. Définition intuitive[modifier | modifier le code] Techniquement, la simplicité correspond à une baisse soudaine de complexité au sens de Kolmogorov, c'est-à-dire que la plus courte description de la situation est plus courte encore que celle anticipée par l'observateur. La théorie de la simplicité établit plusieurs prédictions quantitatives quant à la manière dont le caractère atypique[7], la « distance », la « célébrité » (lieux, individus)[5] influencent l'intérêt porté à une situation.

Aux sources du jeu : 1 – La mécanique – L'acariâtre Aux sources du jeu posté le 27 janvier 2015 Pour présenter un jeu de société, on a coutume de distinguer deux ingrédients principaux : le thème et la mécanique. Mais, je vous le demande : Qu’entend-on au juste par « mécanique » de jeu ? En dehors du jeu Écartons nous un instant du domaine ludique et jouons aux encyclopédistes. Le canard automate de Vaucanson La mécanique fait d’abord référence à la conception et l’étude des machines. Tangible : une machine peut être touchée, manipulée.Lisible : on peut décortiquer une machine et prévoir ses réactions en analysant son mécanisme. D’abord réservée aux machines, la mécanique s’est ensuite étendue aux systèmes, jusqu’à devenir une large branche de la physique. Universel : les lois de la physique s’appliquent à tout objet du système.Décrit : les physiciens s’appliquent à exprimer les lois de la nature sous une forme intelligible. Je m’arrête là pour la mécanique au sens large, j’espère que vous me suivez toujours. La mécanique de jeu Et le hasard ?

Computer History Museum Jeu coopératif (théorie des jeux) En théorie des jeux, un jeu coopératif est un jeu tel que les joueurs ont la possibilité de se concerter et de s'engager à coopérer avant de définir la stratégie à adopter. À deux joueurs et deux stratégies avec une matrice des gains de la forme : où et . Exemples[modifier | modifier le code] Soit un nouveau produit pour lequel deux technologies incompatibles sont disponibles, et deux entreprises envisagent de produire ce produit. Un autre exemple extrême de jeu de coordination est celui du côté de conduite. Dans ce cas, les deux équilibres de Nash en stratégies pures sont : Les deux conduisent à gaucheLes deux conduisent à droite. En stratégies mixtes, il existe un troisième équilibre de Nash où chacune des deux stratégies est équiprobable. il signifie que si chacun choisit son côté de conduite ou sa technologie au hasard, vous ne pouvez pas faire mieux que choisir aussi au hasard. Coordination et sélection des équilibres[modifier | modifier le code] Dans un jeu à n personnes, il y a

amazon Note de lecture : Regards croisés sur l'internet d'Eric Guichard Guichard, Eric. Regards croisés sur l'internet . ENSSIB, Papiers, 2012. Regards croisés sur l'Interne t [ 1 ], sous la direction d'Eric Guichard [ 2 ], s'interroge sur la place du réseau des réseaux dans notre société. Cette analyse se veut diachronique et l'ensemble des auteurs sont tous rattachés et membres fondateurs de l'équipe de recherche Réseaux, Savoirs et Territoires de l'Ecole Normale Supérieure (ENS) de la rue d'Ulm à Paris. Dans son introduction, Eric Guichard, prend le « parti pris de l'histoire longue » et propose d'articuler l'ouvrage autour de l'écriture. Paul Mathias [ 4 ] invente le néologisme de « diktyologie ». Eric Guichard revient, après son introduction, sur le mythe de la fracture numérique. Philippe Rygiel [ 5 ] dans son chapitre : « Ecriture de l'histoire et réseaux numériques » s'intéresse aux « pratiques informatiques des historiens et à leur pratique du réseau lorsqu'ils sont les plus proches du cœur de leur métier d'historien ». Références bibliographiques

Théorie algorithmique de l'information La théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue. La théorie algorithmique de l'information est fondée sur cette équivalence : la description d'un objet est formalisée par un algorithme (autrement dit une machine de Turing), et sa complexité (autrement dit son contenu en information) est formalisé par certaines caractéristiques de l'algorithme : sa longueur ou son temps de calcul. Présentation informelle[modifier | modifier le code]

Defining Game Mechanics by Miguel Sicart Abstract This article defins game mechanics in relation to rules and challenges. Game mechanics are methods invoked by agents for interacting with the game world. Keywords Game Design, Game Research, Game Mechanics, Rules, Challenges. Introduction Gears of War (Epic Games, 2006) showcased the impressive graphical capacities of the then-called "Next Generation" consoles. The question is: what does "mechanic" mean in this context? During the summer of 2006, Nintendo released Bit Generations, a collection of seven games focused on minimalist game design. Given this description, what are the mechanics of Orbital? Game researchers and designers have provided a number of definitions of game mechanics that have been used in different contexts, from analysis (Järvinen, 2008) to game design (Hunicke, LeBlanc, Zubek, 2004). I define game mechanics, using concepts from object-oriented programming, as methods invoked by agents, designed for interaction with the game state. Conclusion

Related: