background preloader

6.2.8. Language

Facebook Twitter

Comment débusquer un mensonge en ligne, des profils de rencontres au Brexit. Il y a trois choses absolument certaines dans la vie : la mort, les impôts et le mensonge. L’occurrence de ce dernier a été clairement confirmée par le récent référendum du Brexit. Les nombreuses promesses de la campagne du « Leave » ressemblaient davantage à des bobards qu’à de solides vérités. Mais il ne manque pas d’endroits où se livrer au mensonge en ligne : pub sur Internet, demandes de visa, articles universitaires, blogs politiques, réclamations d’assurance et profils de rencontre.

Alors, comment s’y prendre pour débusquer ces tromperies en ligne ? Et bien, nous-mêmes, avec Ko de Ruyter, de la Cass Business School à la City University London et Mike Friedman, de l’université catholique de Louvain avons mis au point un détecteur à mensonge numérique. Il peut dévoiler toute une ribambelle de mensonges sur Internet. 1.

Rechercher des mots clefs peut constituer une approche raisonnable lorsqu’on a de grandes quantités de données numériques à traiter. 2. 3. Untangling a Web of Lies: Exploring Automated Detection of Deception in Computer-Mediated Communication by Stephan Ludwig, Tom van Laer, Ko de Ruyter, Mike Friedman. Stephan Ludwig Westminster Business School Tom van Laer City University London - Sir John Cass Business School Ko de Ruyter Maastricht University - Department of Marketing & Supply Chain Management Mike Friedman Catholic University of Louvain (UCL) - Department of Marketing2016 Journal of Management Information Systems, Forthcoming Abstract: Safeguarding organizations against opportunism and severe deception in computer-mediated communication (CMC) presents a major challenge to CIOs and IT managers.

Note: ; approved rev-karen 1/1/16 Number of Pages in PDF File: 41 Keywords: CMC between business partners, Deception severity, Speech act theory, Automated text analysis JEL Classification: L86, M31. 5 | Mapping The Most Influential Languages On Earth. The most influential language on the planet is English, as you could probably guess. But why? Chinese has the most native speakers worldwide. A new interactive graphic from researchers at MIT Media Lab visualizes the major linguistic link between people around the globe and reveals just how influential English really is. MIT Media Lab’s Global Language Network, a project from the lab's Macro Connections group, attempted to quantify the global influence of languages by looking at book translations, tweets, and Wikipedia edits. In the visualization, showcased within the paper and on the Global Language Network's site, languages are represented by circles that are sized according to either its number of native speakers, the GDP per capita of that language's speakers, or its Eigenvector Centrality, a measure of influence within networks.

The web visualization makes this idea far easier to grasp. The full study is here. [H/T: IFLScience] Chomsky.info : The Noam Chomsky Website. Ferdinand de Saussure. Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Saussure. Ferdinand de Saussure, né à Genève le et mort au château de Vufflens-sur-Morges le , est un linguiste suisse. Reconnu comme fondateur du structuralisme en linguistique, il s'est aussi distingué par ses travaux sur les langues indo-européennes (autrefois appelées « langues indo-germaniques »). On estime (surtout en Europe) qu'il a fondé la linguistique moderne et établi les bases de la sémiologie. Dans son Cours de linguistique générale (1916), publié après sa mort par ses élèves, il définit certains concepts fondamentaux (distinction entre langage, langue et parole, entre synchronie et diachronie, caractère arbitraire du signe linguistique, etc.) qui inspireront non seulement la linguistique ultérieure mais aussi d'autres secteurs des sciences humaines comme l'ethnologie, l'analyse littéraire, la philosophie et la psychanalyse lacanienne.

Biographie[modifier | modifier le code] Untitled Document. Google Ngram Viewer. The Google Ngram Viewer is an online phrase-usage graphing tool originally developed by Jon Orwant and Will Brockman of Google, inspired by a prototype (called "Bookworm") created by Jean-Baptiste Michel and Erez Aiden from Harvard and Yuan Shen from MIT. It charts the yearly count of selected n-grams (letter combinations)[n] or words and phrases,[1][2] as found in over 5.2 million books digitized by Google Inc (up to 2008).[3][4] The words or phrases (or ngrams) are matched by case-sensitive spelling, comparing exact uppercase letters,[2] and plotted on the graph if found in 40 or more books during each year (of the requested year-range).[5] The Ngram tool was released in mid-December 2010[1][3] and now supports searches for parts of speech and wildcards. The word-search database was created by Google Books and was based originally on 5.2 million books published between 1500 and 2008.

Operation and restrictions[edit] Corpora[edit] total_counts file See also[edit] References[edit]