background preloader

Computer

Facebook Twitter

Il software che disegna le animazioni insieme a te. Si chiama Autocomplete Hand-drawn Animations, è stato presentato al Siggraph Asia 2015 Pubblicato Kobe, Giappone. Si è conclusa il 5 novembre la conferenza sulla grafica digitale e sulle tecniche interattive d’illustrazione Siggraph Asia 2015. Della manifestazione segnaliamo oggi il progetto Autocomplete Hand-drawn Animations; il software di disegno guidato – che vedete nel video – progettato per ridurre il carico di lavoro di illustratori professionisti e amatoriali. Jun Xing, Li-Yi Wei, Takaaki Shiratori, Koji Yatani così descrivono il loro sistema: “Il disegno manuale è una forma d’arte e uno strumento comunicazione di grande valore, ma complesso.

Ti è piaciuto? Vuoi ricevere aggiornamenti su questo argomento? Segui. Come funziona un computer quantistico. A cura di Federico Cecchini Anche se non siamo in grado di vederlo direttamente, tutti noi sappiamo che i computer funzionano attraverso un codice binario, ovvero attraverso i bit. Sostanzialmente i bit corrispondono ad impulsi elettrici, che vengono codificati all’interno dell’hardware, per generare sequenze di “0” ed “1”, che vengono poi tradotte in specifici comandi dal calcolatore. In un computer classico i bit possono assumere solamente i valori 0 o 1. I computer quantistici invece, lavorano con bit quantistici, o qubits, i quali hanno la particolarità di poter assumere il valore 0 ed 1 nello stesso istante, ed è proprio questa proprietà che conferisce loro una potenza di calcolo notevolmente superiore rispetto ad un normale PC.

Per capirlo bisogna addentrarsi nell’universo microscopico della materia, governato dalle leggi della meccanica quantistica, le quali descrivono un mondo in cui niente è certo e tutto è probabilistico. How long until quantum computing is commercially viable? Imprenditori | Qubit, quanto manca? Quantum computers will be commercially available in 20 years: scientist. It will be 20 years before quantum computers capable of modelling and simulating complex biological and chemical systems to create new materials will become commercially available, a scientist at the University of New South Wales (UNSW) has predicted.

Speaking to CIO Andrew Dzurak, a Scientia Professor in Nanoelectronics at UNSW, believes the turning point will be “when quantum computers can start doing things that existing computers can’t.” “Fully working quantum computers with small bits have already been demonstrated. The issue is when will a quantum computer be able to solve problems that currently cannot be solved with all of the world’s existing computers,” said Dzurak. Dzurak presented UNSW’s recent work on developing quantum bits to attendees at the 20th Australian Institute of Physics Congress, held at the university earlier this week. In September, UNSW research announced that it had created the world’s first working quantum bit based on a single atom in silicon. Introduzione al Quantum Computing.

Di Marco Ivaldi (raptor@antifork.org) Un nuovo modo di sfruttare la natura. Molte tappe nella storia della tecnologia hanno comportato la scoperta di nuovi modi per sfruttare la natura: l'utilizzo di varie risorse fisiche come materiali, forze e sorgenti di energia ha fatto si' che l'uomo compisse progressi tecnologici sempre piu' grandi. Nel corso del Ventesimo Secolo l'informazione e' entrata a far parte della tecnologia, a partire dal momento in cui l'invenzione dei computers ha permesso di processare informazioni complesse all'esterno dei cervelli umani. La stessa storia dei calcolatori e' intessuta di una sequenza di cambiamenti da un tipo di implementazione fisica ad un altro, dalle prime valvole ai circuiti integrati di oggi.

Sul piano degli atomi, la materia obbedisce alle regole della meccanica quantistica, molto differenti da quelle della fisica classica, che invece determinano le proprieta' delle porte logiche convenzionali. Un po' di storia. Dal bit al qubit. Riferimenti. Karl Sims - Evolved Virtual Creatures, Evolution Simulation, 1994. Il logico e l'ingegnere. La tecnologia dell'informazione ha tanti padri e madri. Alcuni sono genitori putativi, altri reali, pochi però sono quelli fondamentali. Nella galleria di questi ultimi un posto di riguardo spetta al britannico George Boole e allo statunitense Claude Shannon, protagonisti del libro Il logico e l'ingegnere di Paul Nahin, in edicola con "Le Scienze" di dicembre e in vendita nelle librerie per Codice Edizioni.

Quella raccontata da Nahin, professore emerito di ingegneria elettrotecnica all'Università del New Hampshire, è la storia di un fecondo incontro intellettuale. I due protagonisti però non si incontrarono mai nella vita reale. Boole fu un uomo del XIX secolo. Bambino prodigio, in seguito da adulto si occuperà di matematica e logica, raggiungendo tra il 1844 e il 1854 vette straordinarie, che avrebbero portato all'algebra che oggi è conosciuta come booleana. Shannon fu un uomo del secolo successivo a quello del logico e matematico britannico.

Discrete Logarithm Problem. Nature00 Lipson. Computer-automated design. The concept of CAutoD perhaps first appeared in 1963, in the IBM Journal of Research and Development [1], where a computer program was written (1) to search for logic circuits having certain constraints on hardware design and (2) to evaluate these logics in terms of their discriminating ability over samples of the character set they are expected to recognize. More recently, traditional CAD simulation is seen to be transformed to CAutoD by biologically-inspired machine learning[11] or search techniques such as evolutionary computation,[12][13] including swarm intelligence algorithms[3]. Guiding designs by performance improvements[edit] Interaction in computer-automated design To meet the ever growing demand of quality and competitiveness, iterative physical prototyping is now often replaced by 'digital prototyping' of a 'good design', which aims to meet multiple objectives such as maximised output, energy efficiency, highest speed and cost-effectiveness.

. , where Exhaustive search[edit] I computer giocano a scacchi: a che punto siamo? Sarà forse inevitabile che i computer diventino imbattibili, con gli scacchi, nel prossimo futuro ma per adesso gli uomini - i campioni naturalmente - sono ancora all'altezza della sfida. Com'è possibile che il cervello umano, che ha solo una piccola frazione delle capacità di calcolo dei computer, sia ancora in grado di mettere a segno delle vittorie? La risposta sta nelle differenze tra l'uomo e i metodi artificiali di calcolo e nella conoscenza che un astuto giocatore ha delle debolezze del computer. L'origine degli scacchi Shaturanga - l'antenato di tutti i giochi come gli scacchi - è stato sviluppato circa 1600 anni fa da un filosofo indiano.

Da allora, si è diffuso in tutto il mondo e si è evoluto in moltissime forme differenti. In Cina, Giappone, Corea, Tailandia e Europa si svilupparono nel Medioevo metodi di gioco simili ma distinti. Per altri 250 anni, tuttavia, nessuno pubblicò un approfondito e sistematico ragionamento sulle strategie degli scacchi europei. Chinook e la Dama. Lecture Videos | Artificial Intelligence. Facebook. Un algoritmo può prevedere il comportamento di una persona meglio di un essere umano - Olivia Goldhill.

Si potrebbe pensare, o almeno sperare, che gli esseri umani siano capaci di capire i propri simili meglio di quanto farebbero delle macchine. Ma uno studio del Massachusetts institute of technology (Mit) suggerisce che un algoritmo è in grado di prevedere il comportamento di una persona più velocemente e in modo più affidabile degli esseri umani. Max Kanter, uno studente iscritto al master in informatica all’Mit, e il suo tutor, Kalyan Veeramachaneni, ricercatore presso il laboratorio di informatica e intelligenza artificiale dell’Mit, hanno creato la Data science machine per cercare dei modelli e capire quali siano le variabili più significative.

Il loro articolo sui risultati del progetto sarà presentato alla Conferenza sulla scienza e l’analisi avanzata dei dati dell’Ieee (Istituto degli ingegneri elettrici ed elettronici) a Parigi questa settimana. In questa sfida la Data science machine si è comportata egregiamente, e lo stesso è successo nelle altre due gare.

System that replaces human intuition with algorithms outperforms human teams. Big-data analysis consists of searching for buried patterns that have some kind of predictive power. But choosing which "features" of the data to analyze usually requires some human intuition. In a database containing, say, the beginning and end dates of various sales promotions and weekly profits, the crucial data may not be the dates themselves but the spans between them, or not the total profits but the averages across those spans. MIT researchers aim to take the human element out of big-data analysis, with a new system that not only searches for patterns but designs the feature set, too.

To test the first prototype of their system, they enrolled it in three data science competitions, in which it competed against human teams to find predictive patterns in unfamiliar data sets. In two of the three competitions, the predictions made by the Data Science Machine were 94 percent and 96 percent as accurate as the winning submissions. Between the lines Featured composition. One of the latest artificial intelligence systems from MIT is as smart as a 4-year-old. When kids eat glue, they’re exhibiting a lack of common sense.

Computers equipped with artificial intelligence, it turns out, suffer from a similar problem. While computers can tell you the chemical composition of glue, most can’t tell you if it is a gross choice for a snack. They lack the common sense that is ingrained in adult humans. For the last decade, MIT researchers have been building a system called ConceptNet that can equip computers with common-sense associations. It can process that a person may desire a dessert such as cake, which has the quality of being sweet. The University of Illinois-Chicago announced today that its researchers put ConceptNet to the test with an IQ assessment developed for young children. “All of us know a huge number of things. AI machine achieves IQ test score of young child. Some people might find it enough reason to worry; others, enough reason to be upbeat about what we can achieve in computer science; all await the next chapters in artificial intelligence to see what more a machine can do to mimic human intelligence.

We already saw what machines can do in arithmetic, chess and pattern recognition. MIT Technology Review poses the bigger question: to what extent do these capabilities add up to the equivalent of human intelligence? Shedding some light on AI and humans, a team went ahead to subject an AI system to a standard IQ test given to humans. Their paper describing their findings has been posted on arXiv. The team is from the University of Illinois at Chicago and an AI research group in Hungary. The AI system which they used is ConceptNet, an open-source project run by the MIT Common Sense Computing Initiative. Results: It scored a WPPSI-III VIQ that is average for a four-year-old child, but below average for 5 to 7 year-olds © 2015 Tech Xplore. Il PC più economico al Mondo per 9$ - Guide informatica. Researchers use disordered matter for computation, evolving breakthrough nanoparticle Boolean logic network. (Phys.org)—Natural computers, such as evolved brains and cellular automata, express sophisticated interconnected networks and exhibit massive parallelism.

They also adapt to exploit local physical properties such as capacitative crosstalk between circuits. By contrast, synthetic computers channel activity according to established design rules and do not adapt to take advantage of their surroundings. Thus, researchers are interested in using matter itself for computation. Scientists have speculated about the ability to evolve designless nanoscale networks of inanimate matter with the same robust capacities as natural computers, but have not yet realized the concept. Using interconnected metal nanoparticles, which act as nonlinear single-electron transistors, the researchers were able to exploit the system's emergent network properties to create a universal, reconfigurable Boolean gate. The fastest method proved to be artificial evolution.

Robo Wunderkind, il "Lego" intelligente che insegna il coding. Robo Wunderkind si definisce il “Lego del futuro”. Immaginate di dare ai bambini dei mattoncini con cui costruire un robot. I bimbi giocano e li assemblano come i tradizionali mattoncini Lego: alla fine, però, oltre a costruire un robot, possono anche programmarlo e farlo funzionare tramite un’app intuitiva (disponibile per iOS e Android). Robo Wunderkind è un kit per insegnare il coding ai bambini che ancora non sanno leggere, di 5-6 anni: mentre giocano con i cubetti, imparano anche a programmare. Il gioco, realizzato dalla startup viennese Robo Technologies, è stato lanciato il 21 settembre su Kickstarter e ha già raccolto quasi 20 mila dollari. Niente codici, solo “drag&drop” Per programmare i robot che costruiscono, i bambini non devono imparare a scrivere codici: la startup ha realizzato, per l’app, un linguaggio intuitivo, così che i bambini possano programmare il robot semplicemente trascinando e rilasciando i blocchetti.

Il coding divertente Compatibile con i Lego Obiettivo scuole. iQ – Come rendere la modellazione 3D semplice, veloce e conveniente con RealSense. Quando l’imprenditore russo Konstantin Popov ha iniziato a sviluppare giochi, si è trovato di fronte a un problema. Si è reso conto di dover creare circa una dozzina di diversi modelli 3D ma di non avere né l’attrezzatura né le competenze necessarie per farlo.

Dopo aver realizzato che avrebbe dovuto spendere una somma considerevole affinché qualcun altro creasse i modelli che gli servivano, Popov ha iniziato a pensare a come eseguire i rendering per conto suo. In questa occasione, potrebbe aver scoperto come rendere la modellazione 3D più semplice e conveniente per tutti. I modelli 3D non vengono impiegati solo per i videogiochi. Per funzionare, Easy 3D Scan ha bisogno solo di un computer con una fotocamera Intel RealSense, un oggetto da scansionare e un tavolo dotato di un meccanismo di rotazione.

Per creare un modello, si colloca l’oggetto da scansionare sul tavolo rotante, puntando la fotocamera RealSense verso di esso. Come funziona? Informazioni sull'autore Alexey Vedernikov. Il nuovo protagonismo della matematica. La matematica è sempre più protagonista nel XXI secolo. E si intrufola anche nella nostra quotidianità. Ecco perché ne parliamo su Tuttoscienze, con due articoli che la analizzano da punti di vista diversi, per certi aspetti perfino opposti. Abbiamo dato la parola a due star del settore: Ivar Ekeland e Alfio Quarteroni. Ekeland, intervistato da Stefano Rizzato, ci spiega perché teoremi e formule stanno dimostrandosi spesso inadeguati a gestire due emergenze-simbolo del momento: i cambiamenti climatici e le fluttuazioni delle Borse: Il secondo, intervistato da Francesco Rigatelli, presenta una serie di possibili soluzioni: di fronte – dice lo studioso – abbiamo sfide computazionali di enorme complessità.

Ma, per chi non ama troppo i numeri, abbiamo pensato di raccontargli, attraverso le parole di uno dei massimi biologi italiani, Carlo Alberto Redi, l’ennesima rivoluzione conoscitiva che riguarda il Dna: come nascono i nuovi geni. Buona lettura a tutti! Gabriele Beccaria. Vocativ. Un laboratorio virtuale per la fisica quantistica. L'SSD più capiente al Mondo 16TB - Guide informatica. Vocativ. MarI/O - Machine Learning for Video Games. Intelligenza Artificiale e QI | Sol Invictus. Un robot adattabile per missioni estreme. Neurogrid: il circuito elettronico che replica il cervello umano.

Il processore che imita il cervello, ricercatori Intel al lavoro sul chip neuromorfico. Memristore. Neuromorphic Silicon Neuron Circuits | Neuromorphic Engineering. Neuromorphic engineering. Neuromorphic circuits. Cervello artificiale: ci siamo quasi - torinoscienza.it. Technology Review - La rivista del MIT per l'innovazione. Clock. Core i3. IBM: processori ai nanotubi di carbonio pronti nel 2020. CPU con 128 core nel 2020? Impensabile per AMD. Galaxy S6 64GB. Samsung GT-i9100 Galaxy S II. Esiste un limite teorico alla potenza di un computer? Il transistor non ce la fa più? Torna la valvola ma a 460 GHz.

Il più potente desktop del momento: ASUS ROG CG8565 TytanSHADOW LIONHEART© - Blog aziendale, assistenza PC | SHADOW LIONHEART© - Blog aziendale, assistenza PC. MIPS (unità di misura) FLOPS. Dopo 50 anni cosa resta delle legge di Moore? IL LIMITE FISICO DELLE CPU. Navion trasforma il navigatore in un videogioco. Un supercomputer per simulare il cervello umano. Legge di Moore. Charles Babbage. Una Macchina di Turing è un modello,... - Tette per la Scienza. Macchina analitica. Il primo computer fu meccanico, la prima programmatrice ... fu una donna! Calcolo (matematica) Analizzatore differenziale. Macchina di Anticitera. Computer analogico. New Type Of Computer Capable Of Calculating 640TBs Of Data In One Billionth Of A Second, Could Revolutionize Computing. 4 criteri alla base del nuovo algoritmo di Facebook.

New transistor mimics human synapse to simulate learning. DAL NOSTRO ARCHIVIO Ada e il primo computer. Un supercomputer per simulare il cervello umano. Controllare singoli fotoni, primo passo verso il qubit. “Teletrasporto” record: 10 mila bit di informazione al secondo.