在 SQL Sever 中要將不同 Row 的某個欄位裡面的值合併起來用,若單純自己土砲那是一件非常辛苦的事情,幸好 SQL Server 提供了 FOR XML 語法,搭配 PATH 模式就能輕鬆做到。
[食譜好菜] SQL Server 使用「FOR XML」語法做欄位合併
- 39670
- 0
- SQL Server
- 2016-12-30
在 SQL Sever 中要將不同 Row 的某個欄位裡面的值合併起來用,若單純自己土砲那是一件非常辛苦的事情,幸好 SQL Server 提供了 FOR XML 語法,搭配 PATH 模式就能輕鬆做到。
今天在建 SQL Index 時又在 Clustered Index 與 Non-Clustered Index 之間徘徊了,每每遇到時都忘記了這兩個之間的差別,爬文後記錄這兩者的差異,避免以後我再度忘記。
Windows 7 下用 VirtualBox 5.0.10 r104061 版本安裝 Windows Server 2012 R2 的 VM 時發生 Error In supR3HardNtChildWaitFor 錯誤訊息。
DES 加密演算法是一種對稱加密演算法,但是用來加解密的 Key 及 IV 需要固定長度,DES 的 Key 及 IV 長度大小都是固定 8 bytes,也就是說每次加解密的過程中都需要湊足 8 bytes 的 Key 及 IV,多了或少了都不行。
我參考余小章的文章 - [C#.NET] 字串及檔案 利用 DES / AES 演算法加解密,實作如何使用不固定長度的 Key 及 IV 進行 DES 加解密。
NEST 的 Search 方法直接將搜尋結果轉換成強型別來提供給我們使用,可說是非常方便,那我們能不能將搜尋結果轉成另外一個強型別呢?答案是肯定的,不過如果直接將 Search 這個一般化方法指定的類別給換掉,會踩到一些雷,且看接下來的說明。
要在 Elasticsearch 下達搜尋指令找出一些東西來,可以透過像 kopf 這類的 Plugin 所提供的 GUI 來直接操作 Elasticsearch 的 RESTFUL Api,可是我們最終還是有需要自己寫程式來下搜尋指令的時候,除了用像 RestSharp 這類的套件,再自行轉換 JSON 結果之外,當然也可以透過 NEST 來輕鬆達成。
Hadoop HDFS 是透過 Block Size 的設定來決定對一個檔案切割的大小,HDFS 預設的 Block Size 是 128mb,意思就是說當一個檔案超過 128mb 時,就會被切成至少 2 個 Block 以上存放。
但是在海量圖檔的情況之下,一個圖檔通常不會超過 128mb,一個檔案還是佔用了一個 Block 個數,實際佔用的磁碟空間是依照檔案的實際大小沒錯,可是檔案的實際大小未達到 Block Size 的設定值時,還是硬生生地佔用了 1 個 Block 個數,當 Block 的數量太多的時候,對於 Hadoop Name Node 的記憶體空間就會有相當大程度的耗損。
同事架設了 Hadoop 用來測試 HDFS,公司有海量的圖檔需要做永久存放的需求,而且都要是 Online 的,在思考解決方案時先考慮到的就是分散式的儲存系統,Hadoop 正夯,所以就拿它來試試看,Hadoop 有很多功能可以使用,但是我們只需要 HDFS 就好了。
Redis Cluster 建立完成後,當然不是建完就擺著可以不用理它,未來有可能會遇到 Scale out 或是資源重新分配的問題,以下介紹如何在我們的 Redis Cluster 上 Add Node、Delete Node、Resharding。
之前有介紹過在 Winodws 上安裝 Redis,從 Redis 3.0 開始提供了 Cluster 的架構,我們可以把一群 Redis Instance 集合起來使用,而且 Client 端只要存取其中一台就可以獲得相同的數據,以下是 Redis Cluster 的設定步驟。