發表文章

目前顯示的是有「C#」標籤的文章

CurveWorld

圖片
  這次來實現一下地平線彎曲的效果。有看過 Switch 的<動物森友會>的應該都有看過場景的遠景地方會彎曲的效果。 要實現的方式可以從 Shader vertex 上做頂點的彎曲。詳細的做法可以參考 HORIZON BEND 的 PDF 文章。 這邊就簡要的放上核心的曲面部分,基本上就是先將模型轉換為世界座標,再去製作彎曲效果,最後再轉回模型的本地座標。 如此一來就可以達到模型彎曲的效果。由於是在vertex製作彎曲,因此模型的面數也是會影響到彎曲後的效果。  最後就是讓地板循環位移,可以達到攝影機跟人物不動,而視覺有前進的效果。 References: https://battlehub.net/HorizonBend/HB.pdf https://unity-chan.com/download/releaseNote.php?id=SDUnityChan&lang=en

TextmeshPro-Gradient

圖片
這次來寫一篇關於 TextmeshPro 的擴展應用。有用文字系統的夥伴,相信一定對於 TextmeshPro 不陌生。由於它的多樣性文字效果,使得他幾乎專案當中是必備的存在。 然而 TextmeshPro 默認的漸層模式卻也是稍有侷限,只能接受上下 2種 不同得顏色的漸變效果,有時候不見得能夠符合需求。 因此這次則對漸層的方面做出擴展,來讓 TextmeshPro 能更支援更多的顏色漸變。 從默認的漸變模式的Shader可以得知,由於默認的漸變是藉由 頂點色染色 的緣故,因此對於一片面來說只有4個頂點,所以最多只能做到 上下 或是 左右 的漸變變化。 對此則可以運用給予漸層貼圖的方式讓它的漸變能支援更多的顏色變化。以下是使用 Gradient 動態產生建成貼圖。 Texture2D GenerateTextureFromGradient (Gradient gradient, int width = 64, int height =1 ) {             Texture2D texture = new Texture2D(width, height, TextureFormat.RGBA32, false);             for (int y = 0; y < height; y++)                 {                 for (int x = 0; x < width; x++)                     {                     float t = (float)x / (width - 1);                     Color color = gradient.Evaluate(t);                     texture.SetPixel(x, y, color);                 }             }             texture.wrapMode = TextureWrapMode.Clamp;             texture.Apply();             return texture; } 再來,我們可以利用頂點色作為UV的辦法將貼圖平鋪到文字上面。由於已經有

GPU Instancing & Boids

圖片
  GPU Instancing 是一項大量重複的物件繪製的時候一種優化的方式。原理是在 相同的3D模型 一次性渲染多次,利用GPU的並行處理能力,極大地減少了CPU和GPU之間的溝通成本,進而提高了渲染效率。 適用於大量重複的物件。對於不同的物件,還是需要進行單獨的渲染。其次,雖然GPU Instancing可以減少CPU和GPU之間的通信開銷,但如果物件數量不夠多,可能無法發揮出其優勢。因此,在使用 GPU Instancing 時,需要根據具體的場景和需求進行適當的優化和調整。 這邊使用了 群鳥移動 Boids 的演算法來演示在大量物件情形中配合 GPU Instancing 的製作。 群鳥移動 Boids 是一種模擬大量物體之間運動的一種算法,有興趣的可以再爬文了解,這邊就不詳細說明。從畫面看,魚群體會在已經限制的範圍內做模擬的群體運動,同時個體之間也會保有間距不重複。 而在GPU Instancing的 魚群當中,我們也可以做出個別的差異。例如 顏色/頂點位移 的偏移。             UNITY_INSTANCING_BUFFER_START(Props)                 UNITY_DEFINE_INSTANCED_PROP(float4, _MaskColor)                 UNITY_DEFINE_INSTANCED_PROP(float, _VertOffset)             UNITY_INSTANCING_BUFFER_END(Props) 當中 _MaskColor 可以讓 GPU Instancing 的 Shader 當中設定顏色,_VertOffset  則是設定頂點運動的偏移值。 在頂點運動上的方式:                     fixed voffset = UNITY_ACCESS_INSTANCED_PROP(Props, _VertOffset);                 float4 offset = float4(0,0,0,0);                 offset.y = _speedRange0 * sin(_Time.y * _speedRange1 + voffset) * mask * mask2 ;          

CommandBuffers

圖片
  在2月29日來發一篇也挺有意思的XD。這篇來寫一下默認管線( Built-in Render Pipeline )當中的  CommandBuffers 功能 。 默認管線當中,渲染的順序是固定的模式,不容易調整。大部分情況下就要按照, 不透明/天空球/透明/後處理/UI 等的渲染順序來渲染屏幕的物件。而 CommandBuffers 則是用來自訂部分渲染的方式來擴展 Unity 的默認管線。 我們可以對要渲染的攝影機增加  CameraEvent 的方式來添加希望增加的渲染內容。例如:希望在 不透明(Opaque) 渲染之後希望另外增加額外的渲染則可以用 CameraEvent.AfterForwardOpaque 的方添加到攝影機上面 ( Camera. AddCommandBuffer ( CameraEvent, CommandBuffer)  ) 。 同時記得不使用時需要從攝影機上移除 ( Camera. RemoveCommandBuffer ( CameraEvent, CommandBuffer) ) 。 從這個魔法球的效果來說,會希望內部帶有扭曲的情形,因此我們可以如同上面講一樣,在 不透明(Opaque) 之後添加 CommandBuffer 讓不透明(Opaque)的部分製作全屏幕的扭曲效果(Distort),再與之後的球體物件 半透明(Transparent) 做疊加處理,來達到內部扭曲&染色的特殊表現。 球體貼牆面會有的邊緣效果是則是利用了深度圖(  _CameraDepthTexture ) 取得的 邊緣(Edge)效果。 設定  CommandBuffer C# 的部分 :  private void RendererCommandBuffer(ref CommandBuffer buf, ref Material mat) { buf.name = "[CommandBuffersEffect]"; int screenCopyID = Shader.PropertyToID("_ScreenCopyTexture"); buf.GetTemporaryRT(screenCopyID, -1, -1, 0, FilterMode.Bilinear);

Vertex Animation Texture

圖片
新年新的開始,祝大家都心想事成,一切順心! 今年也期許自己能夠繼續保持記錄部落格。 VAT 的全名是 Vertex Animation Texture ,是一種用來實現模型動畫效果的技術。 其基本原理是透過記錄模型頂點的變化訊息,並將這些資訊預先烘培( bake )到紋理中,然後在頂點著色器中讀取烘培好的紋理,從而實現模擬物理動畫等效果。 相較於即時運算實體的動畫效果,VAT是一種較為輕量級的解決方案,更 適用於行動裝置 等要較為限制性能的地方。其主要優勢之一是在運行時不需要進行複雜的物理計算,而是直接讀取烘培好的紋理,因此對手機設備性能更友善。 由於是採用烘培的方式擷取動態,因此也能做到回播的效果。重複撥放。 然而,使用VAT也帶來了一些特定的考慮和限制。由於需要記錄模型的位移和旋轉資訊到紋理中,會導致需要額外的儲存空間,並且這些位移/旋轉紋理通常不能被壓縮,以確保動畫效果的準確性和品質。 因此,相對於其他動畫技術,VAT可能會佔用更多的記憶體。需要在製作貼圖時仔細考量動畫時間長度降量減少貼圖使用,來平衡效能和效果。 下面由這張圖來大致示意一下貼圖以及模型的關係: 這邊就結合了大規模渲染必備的 GPU Instancing 方式來呈現大量石頭碎裂的的效果。(碎裂後的底圖則是借用ICON~) 附帶一提API: Graphics.DrawMeshInstanced 可以換成 Graphics.RenderMeshInstanced 可以直接使用 NativeArray ,讓往後接到 JobSystem 可以再方便一些(雖然 RenderMeshInstanced 功能感覺也還沒寫完整) References: https://storyprogramming.com/2019/09/18/shader-graph-rigid-body-animation-using-vertex-animation-textures/

CustomBloom

圖片
對於美術朋友來說,後製的Bloom泛光需求基本上是標配的存在。而特效美術而言,也常有會希望能有限制範圍的泛光效果,而不是全屏幕的Bloom泛光。此時內建的後製Bloom就無法達成這類需求,所以就須要自己下去客製化Bloom(CustomBloom)。 這次也是基於Unity 內建渲染管線 (Built-in Render Pipeline)上來實現。在CustomBloom上可以為2個部分。 第1部分是我們需要知道特定的物件(特效)的範圍,因此可以在該效果的Shader之下再多加上一個 Pass 用來繪製遮罩部分。 第2部分則是將遮罩部分交由後製的CustomBloom的後制效果,走標準的流程( 高斯模糊 )處理,來達到特定範圍的泛光效果。 References: https://assetstore.unity.com/packages/3d/environments/3d-scifi-kit-starter-kit-92152

FBXAnimationEditor

圖片
上傳到  Unity Asset Store 的工具也有好些日子,這陣子工具終於過審查上架了。這邊就來紀錄一下在上傳準備過程中碰到的一些事情以及介紹一下這個工具。 為了能夠上傳  Unity Asset Store 商店,首先最重要的是必須有個 Unity 的帳號。再來只需要按照官方的影片將帳號內所需要的部分填寫清楚。 How to Publish on the Unity Asset Store 等到帳號的內容準備完成之後,再來就是要準備要上傳的品項了。這時還需要去 Unity Asset Store 當中加入一個套件  Asset Store Publishing Tools 到自己的 Unity Package 當中。 再來就是用 Asset Store Publishing Tools 將商品上傳到自己的  Unity 帳號當中等待官方審核。而等待過審的時間保守來看估計要 一個多月 以上的時間才能通過。而審查後也會回覆你的品項是否通過,或是條件缺少要補圖補資料等,而我就因為宣傳圖不符合規定而被退了2次。1次是因為宣傳圖的尺寸不符,而另1次則是宣傳圖上的文字訊息過多。(當成說明文件在製作了...)而這2次往返的回覆則是挺快的,隔日就收到了通知。成功過審之後則會直接上架在 Unity Asset Store 商店當中。 FBXAnimationEditor 接下來是輪到 FBXAnimationEditor 工具的介紹。這個工具主要是用於協助 動畫師 導入FBX 的 Animation 到 Unity 。用來節省動畫師的寶貴 時間 。 導入流程中 AnimationClip 依照時間長度裁切命名好並且設定是否循環,再將 AnimationClip 從 FBX 取出(複製出來)的過程。同時也支援將動作資訊存成 文字檔(txt) 來協助導入,用來加速這些繁瑣的導入過程,對於需要時常往返調整動作檔的 動畫師 而言可以大量節省這些重複的動作以及時間。詳細可以對照下面的 流程圖 以及 影片 觀看功能以及操作流程。以下歸納工具的好處以及優點: 1. 按照時間裁切動作檔 2. 動作檔命名 3. 設置動作是否循環 4. 支援文字檔(txt)導入/轉出已經編輯過的動作資訊 5. 節省重複性的導入步驟(時間)優化工作流程 流程圖 操作流程影片 最後再幫自己的插件推銷一下,可以

Depth Texture To World Position

圖片
  這篇來稍微實作一下深度圖的應用效果。 深度圖當中的數值介於 0~1 之間,精度通常為 32 or 16 bits,而且是非線性分佈,因此往往會需要再取到深度之後再轉一次成為線性的過程才比較方便後續使用。 這次的效果是在 Unity 內建渲染管線 (Built-in Render Pipeline)上製作。 一般來說要開啟深度圖可已在代碼當中加上 Camera.main.depthTextureMode = DepthTextureMode.Depth; 來讓攝影機取得深度圖資訊。 而這次是在 PostProcessing 效果上製作,因次需要在後製的 class 上加上 DepthTextureMode GetCameraFlags() 來讓攝影機開啟取得深度圖。 在開啟深度圖之後,所有的不透明物件(Opaque)都會多計算一次 Pass 來取得深度資訊(Z-Pre Pass)。如果有性能考量,須留意 DrawCall 是否增長過多。 如果是在URP環境,就可以使用 CopyDepth 的方式來取得不透明物件(Opaque)的深度圖。 再來便是在 void Render(PostProcessRenderContext context) 內執行相關的 shader 以及參數的設置。 由於我們希望從深度圖轉出世界座標,因此必須給予shader正確的 攝影機矩陣(Matrix4x4)資訊(傳遞目前的VP逆矩陣)。 最後則可以用後製shader得到的世界座標來做出貼地板的掃光效果。 References: https://ompuco.wordpress.com/2018/03/21/9/ https://www.jianshu.com/p/80a932d1f11e https://assetstore.unity.com/packages/3d/environments/landscapes/free-island-collection-104753 https://assetstore.unity.com/packages/3d/props/exterior/rock-and-boulders-2-6947

AvatarSystem

圖片
  關於Avatar系統,相信有經歷過 MMORPG 的夥伴一定不會陌生,也可以說得上是目前眾多遊戲的一種常規系統。 這邊就寫一下基礎的 Avatar 換裝功能流程。 首先要準備的是一組主骨架,也就是包含全部所有配件都有的骨架。 接下來是依照要拆分的部位,依序拆出來,例如: 頭 / 頭髮 /上半身 /下半身 等部位,而這些部位都必須有綁上跟主骨架相對應的骨架。 再來就是建立一組 Dictionary<string, Transform> 將主骨架的資訊紀錄在內,另一組 Dictionary<int, SkinnedMeshRenderer> 則紀錄上 部位 以及所包含的 SkinnedMeshRenderer 以便之後查找替換。 最後則是製作相對應的按鈕來替換 SkinnedMeshRenderer ,以及重新綁定 SkinnedMeshRenderer.bones 等重複的流程即可。 Avatar系統並不複雜,較為繁瑣的還是在資源的準備上。或是後續要加入的骨骼以及 Dynamic Bone 等細節處理上。 專案一開始要有良好的規範骨架名稱,才能讓 Avatar運作時能正確無誤的替換。 References:  https://assetstore.unity.com/packages/3d/characters/medieval-cartoon-warriors-90079