background preloader

Gamification (solo-collectif +affects+)

Gamification (solo-collectif +affects+)
04 Jan 2011 As many other new disciplines, gamification is evolving day by day with new theories, emerging from studies in games design, human psychology, behavior and other academic fields. We have already discussed about game mechanics and dynamics and their dominant role in producing a gamified environment. The next step is to focus on methods to apply those paradigms in the gamification process. The first attempts, started a few years ago and evolving lately into more complex systems, are heavily based on points and badges, the first and foremost mechanic that can drive the engagement of the user. But this kind of approach has turned out all of its limits, even when joined with location based systems, made possible by the spreading diffusion of GPS on mobile devices. We think that the gamification can be intended and divided into two different blends and both of them can take advantage of the points and badges mechanics. Both approach can work and bring to a successful experience. Related:  à mettre en ligne

Enuma Elish Un article de Wikipédia, l'encyclopédie libre. Enuma Elish ( en akkadien) est l'épopée babylonienne de la création du monde. Signifiant littéralement Lorsqu'en haut, selon ses premiers mots, l'Enuma Elish célèbre à travers sept tablettes la gloire du dieu Mardouk et raconte son ascension vers la souveraineté du panthéon babylonien. Le texte fut découvert au XIXe siècle sous forme de fragments dans les ruines de la bibliothèque d'Assurbanipal à Ninive, ville proche de l'actuelle Mossoul, en Irak. Le poème a probablement été composé à la fin du XIIe siècle av. L'épopée décrit les origines du cosmos, le combats des premiers dieux contre les forces du chaos et l'élévation de Mardouk, dieu tutélaire de Babylone, au-dessus des autres divinités mésopotamiennes ainsi que la création du monde et de l'homme. Le récit[modifier | modifier le code] L'épopée commence au début des temps, alors que l'univers n'est qu'un tout indifférencié rempli par l'eau originelle. Babylone est donc une ville mystique.

glowbl structure Chat échaudé craint l'eau froide. Quelques mois après avoir été conspué pour avoir utilisé Hangouts, le service de vidéo chat de Google, lors d'une conférence, Arnaud Montebourg a décidé cette fois de recourir à un service made in France : Glowbl. Le ministre du redressement productif qui doit lancer, lundi 2 décembre, le grand concours mondial de l'innovation a décidé d'organiser son événement en grande partie sur la plateforme française – des personnalités étant supposées intervenir du monde entier. Mais qu'est-ce que Glowbl ? Concrètement, il suffit à l'utilisateur de créer un « stage » , une scène, dans laquelle il choisit d'inviter le nombre de personnes qu'il veut en leur envoyant un lien par e-mail. L'utilisateur aura le choix entre des conversations privées, ou groupées, et même la possibilité de s'adresser à tout ce beau monde grâce à une bulle géante. « Au départ on a pensé ce système car on organisait des concerts qu'on voulait diffuser en streaming.

MARDUK ou MARDOUK Le dieu le plus important du panthéon babylonien, à partir du ~ xiie siècle. C'est, dans la théologie classique, le fils d'Enki-Ea, le dieu de la sagesse, dont il a hérité la science, la magie et une grande compassion pour l'humanité. À l'origine, Marduk n'était qu'un dieu, agraire sans doute, de Babylone, dont le culte ne paraît pas avoir dépassé la notoriété locale. Cet événement donna lieu à une floraison littéraire, dans laquelle on trouve le Poème de la Création, rédigé pour expliquer mythiquement comment les dieux ont abandonné la première place à Marduk. Marduk, pourtant, absorbe presque complètement la personnalité d'Enlil, de Nippur, comme représentant le pouvoir divin suprême et actif ; et le même nombre 50 les désigne l'un et l'autre ; il s'ensuit une cristallisation, autour de Marduk, de nombreuses épithètes glorifiant sa puissance. Lorsque les Assyriens eurent contact avec la Babylonie, ils manifestèrent le plus vif intérêt pour Marduk.

Les jeux sérieux au banc d'essai Ils se comptent désormais par milliers : les "serious games", qui étaient sensés révolutionner l'apprentissage, remplissent-ils leur promesse ? Réponse mitigée à l'occasion d'une conférence spécialisée à Valenciennes. LE MONDE SCIENCE ET TECHNO | • Mis à jour le | David Larousserie "Jeu sérieux". L'oxymore était au coeur de démonstrations, de compétitions et de discussions lors de E-Virtuoses, la conférence qui s'est tenue à Valenciennes les 4 et 5 juin. Sur un tel thème, le premier jeu est de demander à chacun une définition de cet objet paradoxal, le "serious game". "Les jeux sérieux sont partout et nulle part", constate Gilles Brougère, de l'université Paris-XIII, pour pointer la difficulté à cerner le terme. L'association autrichienne Cuteacute a mis en ligne Data Dealer en mai pour sensibiliser à la protection des données personnelles. Pour "réveiller" les élèves en difficulté, Salim Zein, professeur d'histoire-géographie à Alès, utilise un jeu populaire, Little Big Planet.

Modélisation 3D du soleil Illustration: CEA Modélisation 3D du Soleil: de son cœur à sa surface Une équipe du laboratoire Astrophysique Instrumentation & Modélisation (CEA/CNRS/Université Paris Diderot) a réussi à modéliser les effets d'ondes de gravité dans une simulation du Soleil (Le Soleil (Sol en latin, Helios ou Ήλιος en grec) est l'étoile centrale du système solaire. Dans la classification astronomique, c'est une étoile de type naine jaune, et...) extrêmement complète, de son cœur nucléaire (Le terme d'énergie nucléaire recouvre deux sens selon le contexte :) à sa surface (Une surface désigne généralement la couche superficielle d'un objet. Les ondes (Une onde est la propagation d'une perturbation produisant sur son passage une variation réversible de propriétés physiques locales. Ces ondes jouent un rôle important dans l'évolution de la rotation et du mélange (Un mélange est une association de deux ou plusieurs substances solides, liquides ou gazeuses qui n'interagissent pas chimiquement.

Recurrent neural network A recurrent neural network (RNN) is a class of neural network where connections between units form a directed cycle. This creates an internal state of the network which allows it to exhibit dynamic temporal behavior. Unlike feedforward neural networks, RNNs can use their internal memory to process arbitrary sequences of inputs. Architectures[edit] Fully recurrent network[edit] This is the basic architecture developed in the 1980s: a network of neuron-like units, each with a directed connection to every other unit. For supervised learning in discrete time settings, training sequences of real-valued input vectors become sequences of activations of the input nodes, one input vector at a time. Hopfield network[edit] The Hopfield network is of historic interest although it is not a general RNN, as it is not designed to process sequences of patterns. A variation on the Hopfield network is the bidirectional associative memory (BAM). Elman networks and Jordan networks[edit] The Elman SRN Where:

Restricted Boltzmann machine Diagram of a restricted Boltzmann machine with three visible units and four hidden units (no bias units). A restricted Boltzmann machine (RBM) is a generative stochastic neural network that can learn a probability distribution over its set of inputs. RBMs were initially invented under the name Harmonium by Paul Smolensky in 1986,[1] but only rose to prominence after Geoffrey Hinton and collaborators invented fast learning algorithms for them in the mid-2000s. RBMs have found applications in dimensionality reduction,[2] classification,[3] collaborative filtering, feature learning[4] and topic modelling.[5] They can be trained in either supervised or unsupervised ways, depending on the task. Restricted Boltzmann machines can also be used in deep learning networks. Structure[edit] associated with the connection between hidden unit and visible unit , as well as bias weights (offsets) for the visible units and for the hidden units. or, in vector form, where visible units and and See also[edit]

Self-organizing map A self-organizing map (SOM) or self-organizing feature map (SOFM) is a type of artificial neural network (ANN) that is trained using unsupervised learning to produce a low-dimensional (typically two-dimensional), discretized representation of the input space of the training samples, called a map. Self-organizing maps are different from other artificial neural networks in the sense that they use a neighborhood function to preserve the topological properties of the input space. This makes SOMs useful for visualizing low-dimensional views of high-dimensional data, akin to multidimensional scaling. The model was first described as an artificial neural network by the Finnish professor Teuvo Kohonen, and is sometimes called a Kohonen map or network.[1][2] Like most artificial neural networks, SOMs operate in two modes: training and mapping. A self-organizing map consists of components called nodes or neurons. Large SOMs display emergent properties. Learning algorithm[edit] Variables[edit]

Deep learning Branch of machine learning Deep learning (also known as deep structured learning or differential programming) is part of a broader family of machine learning methods based on artificial neural networks with representation learning. Learning can be supervised, semi-supervised or unsupervised.[1][2][3] Deep learning architectures such as deep neural networks, deep belief networks, recurrent neural networks and convolutional neural networks have been applied to fields including computer vision, speech recognition, natural language processing, audio recognition, social network filtering, machine translation, bioinformatics, drug design, medical image analysis, material inspection and board game programs, where they have produced results comparable to and in some cases surpassing human expert performance.[4][5][6] Artificial neural networks (ANNs) were inspired by information processing and distributed communication nodes in biological systems. Definition[edit] Overview[edit] History[edit]

Neural Network Package Torch7 This package provides an easy way to build and train simple or complex neural networks. Each module of a network is composed of Modules and there are several sub-classes of Module available: container classes like Sequential, Parallel and Concat , which can contain simple layers like Linear, Mean, Max and Reshape, as well as convolutional layers, and transfer functions like Tanh. Loss functions are implemented as sub-classes of Criterion. They are helpful to train neural network on classical tasks. Common criterions are the Mean Squared Error criterion implemented in MSECriterion and the cross-entropy criterion implemented in ClassNLLCriterion. Finally, the StochasticGradient class provides a high level way to train the neural network of choice, even though it is easy with a simple for loop to train a neural network yourself. Module A neural network is called a Module (or simply module in this documentation) in Torch. It also declares two members: share(mlp,s1,s2,... Some important remarks:

Artificial neural network An artificial neural network is an interconnected group of nodes, akin to the vast network of neurons in a brain. Here, each circular node represents an artificial neuron and an arrow represents a connection from the output of one neuron to the input of another. For example, a neural network for handwriting recognition is defined by a set of input neurons which may be activated by the pixels of an input image. After being weighted and transformed by a function (determined by the network's designer), the activations of these neurons are then passed on to other neurons. Like other machine learning methods - systems that learn from data - neural networks have been used to solve a wide variety of tasks that are hard to solve using ordinary rule-based programming, including computer vision and speech recognition. Background[edit] There is no single formal definition of what an artificial neural network is. History[edit] Farley and Wesley A. Recent improvements[edit] Models[edit] or both and , where

Pearltrees Radically Redesigns Its Online Curation Service To Reach A Wider Audience Pearltrees, the Paris-based online curation service that launched in late 2009, was always known for its rather quirky Flash-based interface that allowed you to organize web bookmarks, photos, text snippets and documents into a mindmap-like structure. For users who got that metaphor, it was a very powerful service, but its interface also presented a barrier to entry for new users. Today, the company is launching a radical redesign that does away with most of the old baggage of Pearltrees 1.0. Gone are the Flash dependency, the tree diagrams, the little round pearls that represented your content and most everything else from the old interface. Here is what Pearltrees 1.0 looked like: And here is the new version: Pearltrees’ mission is still to allow you to organize everything you want on the service (in that respect, it almost competes with Evernote). 3. “We took what everybody liked about the old version and put it into a visualization that everybody could grasp right away,” Lamothe said.

Vecteur nul Un article de Wikipédia, l'encyclopédie libre. Dans un espace vectoriel E sur un corps commutatif , le vecteur nul est l'unique vecteur représentant l'élément neutre pour l'addition vectorielle. Son existence est donnée par la définition de la structure d'espace vectoriel. Il peut être noté ou ou encore , ou tout simplement 0. Comme tout élément neutre, le vecteur nul est unique. et sont deux vecteurs nuls d'un même espace vectoriel E, alors Propriétés et remarques[modifier | modifier le code] Exemples[modifier | modifier le code]

Related: