Archive

‘Figaro 牢騷區’ 分類過的Archive

從國際認證市場變化看資管生所需具備的專業技能變化

2014年1月13日 尚無評論

這次筆者很榮幸受高雄應用科技大學 資訊管理學系 第一屆系友會會長 涂春愛會長之邀,為此次該系所創立系友會所發行的會刊進行撰寫評論。筆者也藉此版面分享一下個人於這十多年來於國際認證教育市場、就業市場中的觀察進行分析,讓對於畢業後的應屆生或者是歷屆校友有興趣踏入這個資訊技術追逐的無底洞前有個參考的依據。

面對由IT技術廠商、培訓機構、測考中心的服務商與相關專業評析雜誌、網站所組成的國際認證產業鍊分工的十分精細,面對這些由眾多利潤所構成的巨大市場機制,到底那些國際認證是我們所需要的,而我們又應該挑選那個國際認證來輔助自己投身就業市場前的價值累積呢?對於大部分的資訊管理系所畢業生而言,相信絕大部分的學生都會有著一個難以排除的困惑,那就是論計算機基層技術我們似乎不如資訊工程科系學生學的深厚,論管理學科能力又似乎比專門的企業管理科系、財務管理科技等少了那麼一點點。因此,在學期間與投入市場前三年便是一個十分重要的擴展時期,如何在這段學習期間內透過挑選合適自己領域的技術培養,來獲取自身除了在校所學之外另外一個獨門秘器,便是每一個資管生所需要靜心面對的。

閱讀全文…

Categories: Figaro 牢騷區 Tags:

一次擁有 Linux 雙認證 雙書合購優惠

2013年12月3日 尚無評論

XQ1303151-1

 

一次擁有 Linux 雙認證 雙書合購

 

搞定兩張具國際公信力的 Linux 證照

《LPIC Level II + Novell CLP 11 自學手冊》+
《LPIC Level I + Novell CLA 11 自學手冊, 2/e》 

 

雙書合購特價 72折 (請直接訂購下方所列第一個產品項)

 

※超商取貨滿 $350免運費哦~歡迎多加利用!

活動時間:即日起至2014年1月31日

1. 天瓏網路書店保留修改及變更本活動內容之權利。
2. 若遇退書情況,需連同好禮一併退回

有興趣的朋友可以前往天瓏下單 ^^

sed 進行完全批配處理

2013年10月10日 尚無評論

昨天上課剛好學生提到這個問題,印象中之前有整理過相關文件,但突然找不著了,所以就補上說明使用方式紀錄一下,避免之後要參照又找不到資料:

figaro@www:~> cat test
My name is cat
cat is xxx
catdog
figaro@www:~> sed ‘s/\<cat\>/dog/g’ test
My name is dog
dog is xxx
catdog

Samba Server 啟用主機名稱解析功能配置

2013年7月28日 尚無評論

在 Samba Server 裡面預設我們可以透過 hosts allow 功能來限制存取的主機位置,可以使用 IP、網域名稱等方式來定義這些位置來源,由於 3.0 以後的 Samba Server 版本預設已經將名稱解析參數 hostname lookup 配置為 NO,因此當我們配置為網域名稱的清單格式時會無法進行名稱解析。修正方式只要在 /etc/samba/smb.conf 組態檔案的 [ Global ] 區間內配置  hostname lookup = yes,重新啟動服務便可以解析相關網域名稱條件。

CCSK V3 認證考試準備心得分享

2013年7月27日 尚無評論

CCSK 認證的全名為 Certificate of Cloud Security Knowledge,為全世界第一張雲端安全認證,由雲端安全聯盟 CSA 所制定推廣,雲端安全聯盟開發了符合實務要求的「Security Guidance for Critical Areas of Focus in Cloud Computing」安全指引,以及參考歐洲網路與資訊安全局(ENISA)的「Cloud Computing: Benefits, Risks and Recommendations for Information Security」白皮書,讓這兩項文件成為CCSK認證的核心知識領域,應考人員必須熟悉並理解這些內容,才能夠順利通過考試。

這張國際認證在台灣目前名氣並不是十分響亮與普及,但在國外有許多討論區與群組在針對這個考試項目進行討論,目前訪間的相關參考資料並不多,依據官方的說法,只要熟稔「Security Guidance for Critical Areas of Focus in Cloud Computing」安全指引,以及參考歐洲網路與資訊安全局(ENISA)的「Cloud Computing: Benefits, Risks and Recommendations for Information Security」白皮書便可以涵蓋考試的內容。

目前 Security Guidance for Critical Areas of Focus in Cloud Computing 安全指引從2009年4月釋出第一版本至今,共有三個版本,讀者都可以從官方網站(http://www.cloudsecurityalliance.org/guidance/)進行下載。相關版本讀者可以參考下列連結抓取學習:

CCSK 認證目前已經開放 V3.0 版本的測驗,舊版的 V2.1 至 2013/12/31 止都可以於官方網站報名測驗,新版本比舊有版本異動了兩個知識體與新增一個知識體,範疇上比起舊版的 V2.1 更貼近於目前的產業現況,因此建議各位讀者以 V3.0 版本為測驗版本作為準備目標。

CCSK 認證考試費用從 2013年5月起改為 USD 345元,每一個考生會擁有兩次考試機會,考試題目與之前相同皆為選擇與少數的是非判斷題,通過成績需達 80% 以上才可以過關。依據官方 FAQ 中的文件說法,92%左右的題目都會從 CSA Guidance 出現,而剩下的 8% 會從 ENISA 白皮書中出題,因此考生只要熟讀相關文件便可以獲取高分通過認證。

CCSK認證的考試方式也很特別,官方提供 24 * 7 的測驗服務,考試時間共 90 分鐘,考生可以隨意挑選白天、晚上的時間進行測驗,一但正式啟動考試作業,將不可以進行中途暫停或者是停止考試,而考試的地點由考生自行挑選一個具備網路、瀏覽器的地方來進行測驗。看到這邊可能很多讀者都會有所疑惑,是不是筆者寫錯了呢?在家考試?沒錯,CCSK認證的考試並未委託給考試中心委辦,而是讓考生可以更容易選擇適合測驗的地點、時間,在學習完所規範的技術範疇之外,線上進行測驗。當然,這是個榮譽考試,考生若是想一邊測驗一邊翻書來通過考試,對於發照單位而言雖然抓不到你,但取得這張認證對於考生個人可能就助益不大了。

不過依據筆者這次的測驗經驗,90分鐘的考試過程中基本上可以 “剛剛好” 完成所有的題目,千萬不要跟考試賭什麼會考與什麼不會考,基本上輸贏的代價是345元美金。考試內容比 LPIC Level III 的 Security科目更深入在探討雲端安全的議題與應用,絕大部分的題目很難 “一眼” 變挑選出答案,需要花費一些時間去思考答案選項。考試中也包含許多 IT 人員較不會注意的政策、法律面的問題,這些內容其實對於 IT 技術人員而言仍舊具備一定程度的影響。雖然目前是考 3.0版本,但筆者建議參與的考生絕對要花時間看一下 2.1的版本教材,因為有很多刪除的部份仍舊會活躍在 3.0 版本中,在教材內有很多細部註解、每一個 Domain 結果的建議與參考分析,記住這些都很”重要”,必須花點時間找到內文進行了解與學習。

在 SUSE Linux 中自訂 Daily Crom 的執行時間

2013年6月23日 尚無評論

預設,在 SLES 裡面會將 日、週、月 的排程腳本於 /etc/crontab 會定義一個檢查時間,交由 run-crons 每隔 15 分鐘進行檢查確認:

ns1:~ # cat /etc/crontab
SHELL=/bin/sh
PATH=/usr/bin:/usr/sbin:/sbin:/bin:/usr/lib/news/bin
MAILTO=root
#
# check scripts in cron.hourly, cron.daily, cron.weekly, and cron.monthly
#
-*/15 * * * * root test -x /usr/lib/cron/run-crons && /usr/lib/cron/run-crons >/dev/null 2>&1

由於在這條描述中最前面添加 ‘-‘ 符號,因此何時執行,執行中發生什麼事情都不會被紀錄,若是我們希望取得執行的相關訊息可以將 ‘-‘ 符號移除。

預設,系統會將每日執行的時間定義在開機後的 15 分鐘,如果你希望自訂每日執行的時間可以到 /etc/sysconfig/cron 檔案中,修改 DAILY_TIME 這個變數值,操作方式如下所示:

DAILY_TIME=”23:45″

時間的定義必須是 15 的倍數,主要是配合 run-crons 的檢查週期時間,以上面的範例來說,之後系統不管何時開機,每日排程的檢查時間會在 23:45 進行執行。

LPIC Level 2 新版考綱 4.0 即將上路

2013年6月20日 尚無評論

自2012年8月1日釋出修正的 3.5 版本考綱範疇之後,新版本的 4.0 也即將於今年的 10/1 正式上路,這次的版本異動比起 3.5 來說算是幅度稍微大一些的變化,有興趣的朋友可以參考官方網站的相關詳細說明。底下為筆者整理的相關異動分析:

  1. 新增考綱 200 Capacty Planning,主要是要針對受測者對於系統實際資源的使用情況進行監控,並且學習如何預測後續或者是運作中的系統所需要的實體資源狀態。這個考綱基本上並不會太難,所測驗的相關細節基本上還是屬於在 LPIC Level I 部分範疇內,因此對於考生準備上應該不會太過複雜。
  2. 原先201的Linux 核心部分將 3.X 版本的核心增加更多的項目近來,並且將原先的 201.3、201.4與201.5範疇合併為201.3權重也提升到4分
  3. 在202系統啟動項目中添加PXE的使用方式,與其他替代Linux啟動載入器的項目。
  4. 在203檔案系統與裝置項目中刪除原本的203.4關於udev裝置的管理機制。
  5. 原先的205.4系統相關事件通知移動到206.3
  6. 在208網頁服務項目中添加Nginx的使用,包含建置網頁伺服器與建置反向代理伺服器。
  7. 在210網路用戶端管理項目中原先僅考LDAP用戶端的使用,在新版本中添加210.4針對LDAP伺服器的組態進行測驗。
  8. 在212系統安全項目中,將OpenVPN的使用獨立一個子項目為212.5,而212.4 TCP包裹程式的使用則被移除。
  9. 原先的213故障排除項目整個被移除。

4.0在相關主題權重上也略有異動,但整體比較驚豔的部分是在將OpenVPN、MRTG、OpenLDAP Server等主題添加近來,並且將部分不符合時宜的考綱項目剔除,當然最後的呈現仍得看實際的考試上場後才比較可以確認異動的變化狀態,但至少從目前的更動狀況來說,對於受測的考生而言是一個不錯的消息。

.bash_logout 的使用

2013年5月21日 尚無評論

前幾天上課時剛好有個學員在詢問 .bash_logout 的使用問題,他希望每次登出時將 HISTORY 紀錄清空,預設操作十分簡單,將 history -c 指令語法添加到 $HOME/.bash_logout 即可,但學員反映怎樣測試都是會失敗。後來做了一個簡單的測試,確認一下 .bash_logout 是否有運作:

echo “Bye…..” > $HOME/.bash_logout

然後嘗試登出系統後,會出現:

user@Host2:~> exit

logout
Bye…..

所以證明 .bash_logout 有正常運作,那麼為什麼我們的 HISTORY 紀錄沒被清空呢 ? 其實並不是沒被清空,而是在 $HOME 路徑下還有一個 .bash_history 檔案記住相關 HISTORY 紀錄,若各位還有印象預設我們的環境變數中有指定一個 HISTSIZE 與 HISTFILESIZE 兩個,預設當我們下達 history -c 時會將暫存區內的紀錄清空,也就是清除 HISTSIZE 所記錄的資料筆數,但檔案內的紀錄仍舊存在,因此下次登入系統後仍舊會看到之前存放在 .bash_history 檔案內的相關指令操作紀錄。解決方式如下:

user@Host2:~> cat .bash_logout

history -c
cat /dev/null > $HOME/.bash_history

這樣便可以解決無法清空紀錄檔案的問題 ~

Comparison of file systems

2013年5月13日 尚無評論

WIKI 上有一篇整理蠻詳盡的檔案系統比較,記錄一下怕忘記了:http://en.wikipedia.org/wiki/Comparison_of_file_systems

Linux 下的磁碟重組問題

2013年5月13日 尚無評論

相信很多朋友在 M$ Windows 下使用的經驗過程中,一定都有操作過 “磁碟重組” 這個程式,但在 Linux 檔案系統上似乎我們很少聽到需要進行磁碟重組與看到磁碟重組的程式,這是為什麼呢 ? 其實,在 Linux 檔案系統下並非 “不需要” 進行磁碟重組,而是發生的機率遠低於 FAT 檔案系統而已,若是我們需要知道檔案系統是否有不連續的狀態 ( non-contiguous ) 出現時,可以透過 fsck 指令工具來進行操作,例如:

ns1:~ # fsck -nvf /dev/sdb1
fsck from util-linux-ng 2.16
e2fsck 1.41.9 (22-Aug-2009)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
/lost+found not found. Create? no

Pass 4: Checking reference counts
Pass 5: Checking group summary information

/dev/sdb1: ********** WARNING: Filesystem still has errors **********
48 inodes used (0.00%)
5 non-contiguous files (10.4%)
2 non-contiguous directories (4.2%)
# of inodes with ind/dind/tind blocks: 0/0/0
Extent depth histogram: 25/14
5965907 blocks used (2.44%)
0 bad blocks
1 large file

35 regular files
4 directories
0 character device files
0 block device files
0 fifos
0 links
0 symbolic links (0 fast symbolic links)
0 sockets
——–
39 files

這裡有一篇文章,針對 Linux 檔案系統為何不太需要進行磁碟重組,有十分簡單的說明,有興趣的朋友可以參考一下:Why doesn’t Linux need defragmenting ?

在 Linux 檔案系統中我們是採用索引式檔案系統 ( indexed allocation ) 的運作方式,簡單來說,當我們產生一個檔案之後,這個檔案會取得一個 i-node 位置,裡面會記載這個檔案的相關 metadata 的訊息與包含資料放在那幾個 data block 內,因此當我們存取這個檔案時,便可以快速的取得所有 data block 的位置。而在 FAT 檔案系統下的運作方式則是透過每一個儲存的 data block 間互相告知下一個 data block 的所在位置,這種模式稱之為鏈結串列,但也因為如此,當我們存取放置在兩個檔案系統下的檔案時,會發現 Linux 檔案系統的存取效能會優於 FAT 檔案系統格式,因為我們可以很快速地知道所有 data block 放在什麼地方而一次取得,但 FAT 檔案系統必須反覆的存取這些 data block 才可以串起一個資料內容,一來一反間變增加許多存取時間。

但如果我們真的需要在 Linux 檔案系統下進行重組呢 ? 其實,也是可以,底下有幾個工具有興趣的朋友可以試試看:

  • SHAKE:Shake is a defragmenter that runs in userspace, without the need of patching the kernel and while the system is used (for now, on GNU/Linux only).

    ns1:~ # wget http://download.savannah.nongnu.org/releases/shake/shake-0.999.tar.bz2
    ns1:~ # tar jxvf shake-0.999.tar.bz2
    編譯 shake 需要使用 cmake、libattr-devel、help2man,因此編譯前可以先透過 yum 或者是 zypper 於作業系統內先行安裝:
    ns1:~# cmake /root/shake-fs-0.999
    當你執行 cmake 時已經安裝了 libattr-devel 卻一時反應沒安裝的情況時,請修改 /root/shake-fs-0.999/CMakeLists.txt 檔案,將 78、86、87、88這四行註解後重新執行 cmake 就可以

    ns1:~ # cd shake-fs-0.999/
    ns1:~/shake-fs-0.999 # make ; make install

    在使用 shake 重組磁碟時,必須先將磁碟裝置掛載到目錄,並且記得掛載 user_xattr 參數

    ns1:~ # mount -o user_xattr /dev/sdb1 /data
    ns1:~ # mount | grep data
    /dev/sdb1 on /data type ext4 (rw,user_xattr)

    ns1:~ # /usr/local/bin/shake /data
    ns1:~# umount /data
    重組後,可以在執行一次 fsck 檢查一下不連續的狀態,重輸出結果便可以發現已經有所改善

    ns1:~ # fsck -nvf /dev/sdb1
    fsck from util-linux-ng 2.16
    e2fsck 1.41.9 (22-Aug-2009)
    Warning! /dev/sdb1 is mounted.
    Warning: skipping journal recovery because doing a read-only filesystem check.
    Pass 1: Checking inodes, blocks, and sizes
    Pass 2: Checking directory structure
    Pass 3: Checking directory connectivity
    /lost+found not found. Create? no

    Pass 4: Checking reference counts
    Pass 5: Checking group summary information
    Free blocks count wrong (238224093, counted=238224094).
    Fix? no
    /dev/sdb1: ********** WARNING: Filesystem still has errors **********
    48 inodes used (0.00%)
    1 non-contiguous file (2.1%)
    2 non-contiguous directories (4.2%)
    # of inodes with ind/dind/tind blocks: 0/0/0
    Extent depth histogram: 26/13
    5965907 blocks used (2.44%)
    0 bad blocks
    1 large file

    35 regular files
    4 directories
    0 character device files
    0 block device files
    0 fifos
    0 links
    0 symbolic links (0 fast symbolic links)
    0 sockets
    ——–
    39 files

  • defrag:這是另外一隻重組腳本程式,使用方式比較簡單先,直接透過 Shell 下執行該程式指定針對的裝置便可以進行檢查重組
    ns1:~ # wget http://ck.kolivas.org/apps/defrag/defrag-0.08/defrag
    –2013-05-13 10:05:28– http://ck.kolivas.org/apps/defrag/defrag-0.08/defrag
    Resolving ck.kolivas.org… 193.19.136.183
    Connecting to ck.kolivas.org|193.19.136.183|:80… connected.
    HTTP request sent, awaiting response… 200 OK
    Length: 2773 (2.7K) [text/plain]
    Saving to: `defrag’

    100%[======================================>] 2,773 –.-K/s in 0.001s

    2013-05-13 10:05:29 (1.77 MB/s) – `defrag’ saved [2773/2773]

    ns1:~ # sh defrag /dev/sdb1
    Creating list of files…
    511 files will be reordered

    0 files left
    Succeeded

  • 在 Ubuntu 底下還有一個針對 EXT4 檔案系統的重組程式,e4defrag,有興趣的朋友也可以試試看,使用方式可以參考這篇文章:Defragment Ext4 File systems using e4defrag (Ubuntu)