background preloader

Shadertoy BETA

Related:  FX2021 Novembre

Azgaar's Fantasy Map Generator Layers preset: Displayed layers and layers order: Texture Heightmap Biomes Cells Grid Coordinates Wind Rose Rivers Relief Religions Cultures States Provinces Zones Borders Routes Temperature Population Ice Precipitation Emblems Labels Icons Military Markers Rulers Scale Bar Vignette Click to toggle, drag to raise or lower the layer Ctrl + click to edit layer style View mode: Map settings (new map to apply): Generator settings: Edit Regenerate Add Show Create Fantasy Map Generator is an open source tool by Azgaar. Join our Discord server and Reddit community to ask questions, get help and share maps. The project is under active development. Special thanks to all supporters on Patreon! Check out our other projects: • Armoria: a tool for creating heraldic coats of arms • Deorum: a vast gallery of customizable fantasy characters

Watch: How to Create a Realistic VFX Army From Only One Person Under Armour's viral 'Rule Yourself' campaign was created using state-of-the-art technology and old-fashioned ingenuity. Under Armour's inspiring 'Rule Yourself' campaign, featuring Misty Copeland, Stephen Curry, and Jordan Spieth, and produced in collaboration with Droga5 and director Wally Pfister, features an army of athletes training. But there wasn't enough time or resources to film hundreds of people. So how did they pull it off? In a new video, production company The Mill shows how its employees cloned the athletes with plates, clever camera usage, and VFX. To create the crowd of people, the company first rigged a five-camera array that maximized the number of plates they could shoot. Then, the company created identical clones of the featured athletes, scanning them head to toe to make CG agents. As the company details in the video, because the shoot took place during a small window of time, it was nearly impossible to create uniform lighting conditions throughout each spot.

Fragmentarium In some ways path tracing is one of the simplest and most intuitive ways to do ray tracing. Imagine you want to simulate how the photons from one or more light sources bounce around a scene before reaching a camera. Each time a photon hits a surface, we choose a new randomly reflected direction and continue, adjusting the intensity according to how likely the chosen reflection is. Though this approach works, only a very tiny fraction of paths would terminate at the camera. So instead, we might start from the camera and trace the ray from here and until we hit a light source. But if the light source is small, e.g. like the sun, we have the same problem: the chance that we hit a light source using a path of random reflections is very low, and our image will be very noisy and slowly converging. Even though the concept of path tracing might be simple, introductions to path tracing often get very mathematical. Diffuse reflections Imagine that a Lambertian surface is hit by a light source. and

Livecodelab What's this? This is a toy live coding environment: programs run immediately as they are typed. Pick something from the "Demos" menu or try the tutorials. Want more info? See the intro or the docs Want to hack this? Oh nooo. All these examples starting with "webgl" are going to look silly in your browser (which doesn't seem to support 3D acceleration). Why not try to get some awesome 3D action started? Snap! Your browser doesn't seem to support audio. Be a champion and try a newer browser. (while you are at it, pick one that supports 3D such as Chrome or Firefox). Congrats! You've unlocked the "I borked the sound system" badge! This sometime happens when playing lots of music. Just re-start the browser to get everything back to normal. (We know it's fun, we do this all the time, it's OK). Oh my! Your browser is way old. We understand.

Efficient parallax scrolling background using GLSL shaders | NotNowLewis - Games from Nicky Heald Posted on Wednesday, 18 December 2013 Take a look at this. The scrolling background has 4 layers, each with an alpha channel. Each layer is 2560x720. Looks pretty good I think! "But Nicky," I hear you exclaim, "doesn't drawing each of those layers mean you're pushing an entire screen of pixels 4 times just to draw the background? Yeah, on the desktop you might be fine, but on mobile you're asking for trouble. As I'm using libGDX, I created a Mesh containing a single, fullscreen quad, and loaded the four textures. The real work is going on in a shader. backgrounds.get(0).bind(0); backgrounds.get(1).bind(1); backgrounds.get(2).bind(2); backgrounds.get(3).bind(3); Now we've got to tell the shader how far in the level our player has travelled, which textures we're using, and render our fullscreen mesh. travelDistance is a float, in my case, it is camera.position.x / 1280 / 15 which moves the background at a pleasing speed. Now the code that powers the parallaxShader. All pretty simple!

Logiciel école ebep 第11回:CG制作いろはにほへと エフェクト編 爆発は芸術だ!その3 | DML~CG制作 いろはにほへと~ | AREA JAPAN こんにちは、株式会社デジタル・メディア・ラボでエフェクト担当している近藤です。 半年近く間が空いてしまいましたね(汗 中々更新出来ずにすみません! 某少年紙の某漫画家さんみたいな連載休止状態になってしまいましたが(汗 その代わりボリューム満載の内容でお届けしますので期待していて下さいね! さて、期間が空きすぎていて覚えていない方もいらっしゃると思いますが、 第10回「CG制作いろはにほへと」エフェクト編「爆発は芸術だ! 前回をまだ見てない方は是非チェックしてみてください。 Step01【爆発をレイアウトしてリアルな色を付けていく】 前回作った爆発から各パラメーターを調整して爆発のバリエーションを増やして 良い感じにレイアウトしてレンダリングして確認してみます。 動きは良い感じですが、色合いが微妙ですね(汗) 何かのっぺりしている感じがしてリアルではありません。 よし! で、これを使うにはまずTemperature(温度)チャンネルを加えて再シミュレーションします(既にシミュレーションした人ごめんなさい><) 次にfumefx の「rend」タブにある Fire の Gradient/Fire をクリックして「Black-body」を選びます。 すると、色合いが変わったのと同時に操作出来なかったパラメーターが操作出来るようになります。 Lin-Exp Bias Temp. これがま~た癖のある機能で、パラメーターの調整次第で色々な表情を出してくれます。 めっちゃ白いやん! それもそのはず、パラメーターの「Temp.Scale」が10になってるではありませんか、 普通の状態の10倍温度が高くなっているので、これを1にして確認してみます。 まぁまぁ、マシになってきましたが火と煙が馴染んでなくて堅い印象なので、「Fire-Smoke Blend Span(K)」を2000まで上げていきましょう。 うん、大分炎と煙が混ざり合って立体感が出てきました。 色が自然になってきてリアルにまた一歩近づきました! 大分、リアルな色合いになってきましたね。 今回は以下の設定が良い感じだったので、これでレンダリングしていきます。 はい! Point:いろいろなパラメーターを調節してトライアンドエラーだ! Step02【背景を作っていく】 では、設定方法です。 重力の設定

Syntopia | Generative Art, 3D Fractals, Creative Computing openFrameworks GLSL Sandbox Gallery GLSL Sandbox Create new effect! / github / gallery by @thevaw and @feiss / editor by @mrdoob, @mrkishi, @p01, @alteredq, @kusmabite and @emackey Previous page Next page | Pixeliser & Flouter une image en ligne

まるで一人称視点のゲーム!? 米軍の最新型ARヘッドアップディスプレイ(動画あり)|WIRED.jp 米ワシントンD.C.で2017年5月18日(米国時間)に開催された米国防総省の展示会「Lab Day」で、陸軍の通信用電子機器研究開発センター(Communications-Electronics Research, Development and Engineering Center:CERDEC)と陸軍研究所(Army Research Lab:ARL)が、一人称視点のシューティングゲーム(FPS)にそっくりのディスプレイの試作品を披露した。「拡張現実(AR)」機能を搭載したヘッドアップディスプレイで、戦場の兵士がセンサーやその他のデータを瞬時に利用できるようにするものだ。 「戦術拡張現実」(Tactical Augmented Reality:TAR)と呼ばれるこのシステムは、兵士が戦場で互いに連絡を取り合ったり、「状況を認識」したりできるようにするための陸軍の最新技術だ。自分が現在いる場所や、味方や敵のいる場所など、作戦遂行のために把握する必要があるすべての情報を戦術通信に統合できる。 「戦術拡張現実」(TAR)によって何が可能になるかを説明する陸軍の動画。VIDEO BY US ARMY/ARS TECHNICA CERDECとARL、そして国防総省の国防高等研究計画局(DARPA:Defense Advanced Research Projects Agency)は、こうしたAR的技術を30年以上前から開発してきた。 陸軍はその後、Android OSをベースにした「ネットウォーリアー」(Nett Warrior)の開発を開始した。 ネットウォーリアーが開発された頃はちょうど、「Google Glass」やマイクロソフトの「HoloLens」といった民生用のARギアがリリースされようとしていた頃でもあったため、陸軍は、TARのようなシステムを開発するための共通プラットフォームを手にした。 そして2年前から開発されている「HUNTER(Heads Up Navigation, Tracking and Reporting)」システムでは、GPS、ヘルメットカメラ、および慣性センサーのデータを使って、兵士の視界に「地理情報を表示」する。 ただし、戦術拡張現実を現実の戦場で使うには、まだ大きな問題が残っている。 「ネットウォリアー」のディスプレイで、地図を表示しているところ。

Related:  ABOUT SHADERvr