如果第一次在 Linux 的環境中利用 Karma 來執行測試的時候,可能會看到類似下圖的錯誤
前提是你的測試瀏覽器是用 chrome 才會 >> browsers: ['Chrome']
很明顯的是 Karma 沒辦法透過環境變數 找不到 Chrome 的執行路徑
你可以透過指令
$ which chromium-browser 來找出 Chrome 的執行路徑
>> /usr/bin/chromium-browser
接者加到環境變數 CHROME_BIN
$ echo 'export CHROME_BIN="/usr/bin/chromium-browser"' >> ~/.bashrc && source ~/.bashrc
再執行一次 Karma 就可以了
2015年1月19日 星期一
2015年1月12日 星期一
【Apache Solr】建立 Collection (Create Collection)
在前一篇 【Apache Solr】Getting started:Solr Cloud configuration and example 提供了一個
關於 Solr Cloud 環境的建立與一些簡單的範例,接下來就繼續介紹如何建立 Collection
在 Solr Cloud 的環境內要建立 Collection 之前必須要先有 Configuration
所謂的 Configuration 先前已經提到過了,就是類似在 $SOLR_INSTALL/example/solr/collection1/conf 內的所有內容
最重要的就是 solrconfig.xml 以及 schema.xml 了
當然不管是在 Cloud 還是 Single Node (單點) 的環境上都是需要 Configuration 的
不過 Solr Cloud 是需要將 Configuration 上傳到 Zookeeper,統一由 Zookeeper 做管理
我們可以透過以下指令來達成
$ cd solr-4.10.2/example/scripts/cloud-scripts/
$ ./zkcli.sh -zkHost localhost:9983
-cmd upconfig
-confdir {your configuration location}
-confname collection1
關於 Solr Cloud 環境的建立與一些簡單的範例,接下來就繼續介紹如何建立 Collection
在 Solr Cloud 的環境內要建立 Collection 之前必須要先有 Configuration
所謂的 Configuration 先前已經提到過了,就是類似在 $SOLR_INSTALL/example/solr/collection1/conf 內的所有內容
最重要的就是 solrconfig.xml 以及 schema.xml 了
當然不管是在 Cloud 還是 Single Node (單點) 的環境上都是需要 Configuration 的
不過 Solr Cloud 是需要將 Configuration 上傳到 Zookeeper,統一由 Zookeeper 做管理
我們可以透過以下指令來達成
$ cd solr-4.10.2/example/scripts/cloud-scripts/
$ ./zkcli.sh -zkHost localhost:9983
-cmd upconfig
-confdir {your configuration location}
-confname collection1
2015年1月7日 星期三
【Apache Solr】Getting started:Solr Cloud configuration and example
在前一篇 【Apache Solr】Getting started: Installation & A single node example 的教學
有簡單介紹 Solr 的細節和目錄結構以及如何配置單一節點的 Solr 並啟動 Solr 服務
也說明如何在單一節點上建立一個新的 core,接下來就介紹 Solr Cloud 分佈式的設定和一些簡單範例
分佈式(Cloud)
叢集的效果就很像 Hadoop/HDFS 的樣子,資料是分佈式儲存,並透過 Zookeeper 來作協同管理,一個節點(Node)失效並不會造成資料遺失等問題,在 Solr 文件中都稱為 "SolrCloud"
以下範例同樣是以 Solr 跟目錄下的 example 為例
有簡單介紹 Solr 的細節和目錄結構以及如何配置單一節點的 Solr 並啟動 Solr 服務
也說明如何在單一節點上建立一個新的 core,接下來就介紹 Solr Cloud 分佈式的設定和一些簡單範例
分佈式(Cloud)
叢集的效果就很像 Hadoop/HDFS 的樣子,資料是分佈式儲存,並透過 Zookeeper 來作協同管理,一個節點(Node)失效並不會造成資料遺失等問題,在 Solr 文件中都稱為 "SolrCloud"
以下範例同樣是以 Solr 跟目錄下的 example 為例
- 如何啟動
$ cd solr-4.10.2
$ cp -r example/ shard1/
$ cd shard1
$ rm -r solr/collection1/data/
以上的動作會在 solr 跟目錄下建立一個 shard1 目錄,內容跟 example 目錄相仿
接下來在 shard1目錄下執行以下 command
$ java -DzkRun -DnumShards=2 -Dcollection.configName=collection1
-Dbootstrap_confdir=./solr/collection1/conf
-jar start.jar
2015年1月6日 星期二
【Apache Solr】Getting started: Installation & A single node example
Apache Solr 是一個全文搜索的平台,能夠將多種格式的資料儲存在它的資料庫內,並提供快速的資料檢索
Solr 在 2010 年的時候與 Apache 的另外一個專案 Lucene 合併,Lucene 其實就是整個資料搜尋的核心,
它提供了所有的資料搜尋與檢索的函式庫。
而 Solr 則是利用了 Lucene 的搜尋功能並採用 Servlet container(預設是 Jetty) 來提供 REST,
及其他 API 的方式讓開發者能夠輕易的對資料進行查詢。
--------------------------------------------------------------------
接下來以 Apache Solr 4.10.2 的版本來安裝並介紹
前提是你的作業系統內必須安裝 Java 7,如果你是 Java 6 的話可以考慮更新到 Java 7,
或是選擇 Solr 版本 4.7.0 以下的也是可以。
首先先到 http://archive.apache.org/dist/lucene/solr/4.10.2/ 下載合適你作業系統的壓縮檔
以下以 Linux ubuntu 為例
$ cd ~
$ wget http://archive.apache.org/dist/lucene/solr/4.10.2/solr-4.10.2.tgz
$ ......
Solr 在 2010 年的時候與 Apache 的另外一個專案 Lucene 合併,Lucene 其實就是整個資料搜尋的核心,
它提供了所有的資料搜尋與檢索的函式庫。
而 Solr 則是利用了 Lucene 的搜尋功能並採用 Servlet container(預設是 Jetty) 來提供 REST,
及其他 API 的方式讓開發者能夠輕易的對資料進行查詢。
--------------------------------------------------------------------
接下來以 Apache Solr 4.10.2 的版本來安裝並介紹
前提是你的作業系統內必須安裝 Java 7,如果你是 Java 6 的話可以考慮更新到 Java 7,
或是選擇 Solr 版本 4.7.0 以下的也是可以。
首先先到 http://archive.apache.org/dist/lucene/solr/4.10.2/ 下載合適你作業系統的壓縮檔
以下以 Linux ubuntu 為例
$ cd ~
$ wget http://archive.apache.org/dist/lucene/solr/4.10.2/solr-4.10.2.tgz
$ ......
訂閱:
文章 (Atom)