本日DBpediaの日本語版を公開しました.これはWikipedia日本語版からデータを抽出してLinked Open Dataとして公開するものです.まだinfoboxからdbpedia-owl等の語彙へのマッピング作業等をしていないので取得できるデータが少ないですが,まずは第一段階ということで.

LinkedData.jpに投げたのをこちらにも載せます.

FacebookのOpen Graph Protocol (Web pageに埋め込むほう)は元々RDFaやMicroformatsから派生して作られていますが,今回のf8からの変更で,Open Graph API (グラフの情報を取得するほう)がJSONだけではなくてTurtleを返すようになりました.

例えば私のfacebookの情報はhttp://graph.facebook.com/fumihiroから取れます.

% curl -H 'Accept: text/turtle' http://graph.facebook.com/fumihiro
@prefix rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> .
@prefix rdfs: <http://www.w3.org/2000/01/rdf-schema#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix api: <tag:graph.facebook.com,2011:/> .
@prefix og: <http://ogp.me/ns#> .
@prefix fb: <http://ogp.me/ns/fb#> .
@prefix : <http://graph.facebook.com/schema/~/> .
@prefix user: <http://graph.facebook.com/schema/user#> .
</1209165766#>
       user:id "1209165766" ;
       user:name "Fumihiro Kato" ;
       user:first_name "Fumihiro" ;
       user:last_name "Kato" ;
       user:link <http://www.facebook.com/fumihiro> ;
       user:username "fumihiro" ;
       user:gender "male" ;
       user:locale "en_US" .

@base <http://graph.facebook.com> .があったほうが良いとおもうのですが,そこらへんは修正されることを期待します.同じものをntriplesにしてみると,以下のようになります.こちらのほうがURIがはっきりしていてわかりやすいかもしれません.

% rapper -i turtle -o ntriples 'http://graph.facebook.com/fumihiro'
rapper: Parsing URI http://graph.facebook.com/fumihiro# with parser turtle
rapper: Serializing with serializer ntriples
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#id> "1209165766" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#name> "Fumihiro Kato" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#first_name> "Fumihiro" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#last_name> "Kato" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#link>
<http://www.facebook.com/fumihiro> .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#username> "fumihiro" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#gender> "male" .
<http://graph.facebook.com/1209165766#>
<http://graph.facebook.com/schema/user#locale> "en_US" .
rapper: Parsing returned 8 triples

f8でのもう一つの変更は,ページやアプリの作成者がActionとObjectを定義できるようになったことです.Actionは動作,Objectは対象物として,User => Action => Object という関係を取れるようになります.これは,今までのUser => Like => Page の関係が発展したものです.見ての通りこれはトリプルになります.今はまだ出していないですが,今後Turtleでこの関係が取れるようにしてくるでしょう.

schemaもrdfsでとれるようになっています.

ユーザのschema

% curl -H 'Accept: text/turtle' 'http://graph.facebook.com/schema/user'

ページのschema

% curl -H 'Accept: text/turtle' 'http://graph.facebook.com/schema/page'

また,もっと様々な付加情報が欲しい場合は,’?metadata=1’をつけると取れます.

% curl -H 'Accept: text/turtle' 'http://graph.facebook.com/fumihiro?metadata=1'
</1209165766#>
       user:home <http://graph.facebook.com/fumihiro/home> ;
       user:feed <http://graph.facebook.com/fumihiro/feed> ;
       user:friends <http://graph.facebook.com/fumihiro/friends> ;
       user:mutualfriends <http://graph.facebook.com/fumihiro/mutualfriend> ;
       user:family <http://graph.facebook.com/fumihiro/family> ;
......

但しこれらのURIの先はOAuth認証しないと取れないようになっています.

やはりすでに大量の人URIを持っているauthorityが提供し始めるとインパクトが違いますね.Twitterのメタデータ埋め込みがまったく音沙汰なくなっていて悲しいですが,Google+とかにも頑張ってもらいたいです.

色々試した画面キャプチャや参考リンクなどをGoogle+にまとめています.

すでにEbookは販売されているのですが,O’reilly MediaからLearning SPARQLという本がでています.紙は7/22からのようです.一通り読みましたが,今のところ唯一のSPARQL解説本ですし,SPARQL1.1の細かい内容まで含んでいるのでお薦めです.セマンティックWeb プログラミングではSPARQLの話は少しでてくるだけでしたが,この本が補完してくれます.

既にWeb上では,SPARQLを使うことで政府データや音楽データ,生物データなどの多種多様なデータにアクセスできるようになっています.単なるWebAPIと異なるのは,SPARQLを一度覚えることで,SPARQLに対応しているサイトであればどこでも同じ仕組みでデータを使えるということです.他には複数のサイトからデータを取得してマージするときなどにメリットがあったりします.

日本でもすでに国立国会図書館典拠データ検索・提供サービス (Web NDL Authorities)DBCLSのAllie: A Search Service for Abbreviation / Long Form,我々のプロジェクトであるLODACなど,SPARQL Endpointを持っているサイトがでてきています.これらのデータを使うためにSPARQLを勉強するには良い本だと思います.

ちなみに今週末開催の第2回LinkedData勉強会のメインテーマはSPARQLです.SPARQLに少しでも興味がありましたら是非ご参加ください.

先日LinkedDataの勉強会を企画して行いました.今回はLinked Dataに興味があるけどどうやったらいいのかわからないという疑問に答えを見つけるために,プログラミング以外の方法でLinked Dataを作成するための支援ツールについて,有志に発表して頂きました.各発表資料はLinkedData.jpのページにまとめてあります.また,これを期にLinkedData.jp自体も少しずつ作り直しています.

個人の感想としては,Google Refineは今後データクリーニングをしたい人には必須のツールになるのではないかなと思いました.日本語がどの程度できるのかは未知なのですが,英語に関してはかなり良い精度でクリーニングできるようです.

これからは定期的に勉強会を開催していきたいと考えていますので,是非ご興味がある方はご参加ください.

ORFのサイトにはまだ掲載されていませんが,来週11/23(火祝) 10:30-11:00にORF2010 40Fカフェでトークセッションをすることになりました.午前中で且つ裏番組達が強力なのですが,Web技術,地域情報・コミュニティ,Open Governmentなどに興味がある方もそうでない方も是非お越しいただければ幸いです.入場費は無料です.

Open Research Forum “And You?” AWA lab. セッション
Linked Dataとコミュニティが拓くオープンガバメント

  • 11/23(火・祝)10:30~11:00
  • 場所:40カフェ
  • 加藤文彦 SFC第9期生 情報システム研究機構 国立情報学研究所特任研究員 LinkedData.jp
  • 小林巌生 Open Community Data Initiative/ 横浜Linked Open Data Project 主宰
  • 司会:深見嘉明 政策・メディア研究科 次世代Web応用技術・ラボ 特別研究助教

世界最大のドキュメントデータベースであるウェブ。そのウェブを、データ共有・活用のためのプラットフォームに進化させる技術、それがLinked Open Data(LOD)です。LODはオープンガバメント戦略の中で重要な技術として位置づけられており、イギリス・アメリカでは政府が積極的に取り組んでいます。

本セッションでは、SFC卒業生で国立情報学研究所にて学術情報のLOD化に尽力されている加藤文彦氏と、地域コミュニティの活性化をLODを通じて行う横浜Linked Open Data プロジェクトを主催する小林巌生氏を迎え、アカデミックコミュニティと地域コミュニティによるボトムアップでのオープンガバメントの実現への方策、課題について議論します。

Twitterを見れば分かるとおり最近RDF Storeの調査をしているのですが、その過程でOntoWikiを使おうとして色々嵌っているので、ログを残しておきます。現在Ubuntu10.04での動作を確認しています。

Virtuosoのインストール

Open Link Virtuosoは複数のデータ形式を統合して扱えるデータベースです。RDF Triple/Quad Storeとしても使え、SPARQLにも対応しています。Open Source版とClosed Source版があり、Closed版ではClusterやSnapshoなどの追加機能があります。ここではOpen Source版を使います。

まずVirtuoso Open Source Editionのインストールです。Ubuntuのrepositoryにあるのが6.1.0で、これだと最新のOntoWikiが不具合起こすので、debian squeezeから最新のソースパッケージ持ってきて再構築しました。


$ wget http://ftp.de.debian.org/debian/pool/main/v/virtuoso-opensource/virtuoso-opensource_6.1.1+dfsg1-1.dsc
$ wget http://ftp.de.debian.org/debian/pool/main/v/virtuoso-opensource/virtuoso-opensource_6.1.1+dfsg1.orig.tar.gz
$ wget http://ftp.de.debian.org/debian/pool/main/v/virtuoso-opensource/virtuoso-opensource_6.1.1+dfsg1-1.diff.gz
$ dpkg-source -x virtuoso-opensource_6.1.1+dfsg1-1.dsc
$ cd virtuoso-opensource-6.1.1

再構築に必要なパッケージをインストールします。

$ aptitude build-dep virtuoso-opensource
$ aptitude install quilt fakeroot

変更点はbuild formatを変えるだけです。changelogとかもそのままでbuildします。

$ echo "3.0 (quilt)" >debian/source/format
$ debuild -us -uc

ライブラリが足りなければ適宜インストールしてください。もし問題がなければ、上のディレクトリに*.debができているのでインストールします。インストール時にデータベースのパスワードを聞かれるので設定します。

$ dpkg -i ../*.deb

次のコマンドで問題なく起動できればインストール完了です。

$ /etc/init.d/virtuoso start

ODBCの設定 (要確認)

NOTE: この設定は必要ないかもしれないので要確認

まずodbcinstをインストールします。

$ aptitude install odbcinst odbcinst1debian1

その後、/etc/odbcinst.ini,odbc.iniを以下のように作成します。

- /etc/odbcinst.ini
[virtuoso-odbc]
Driver  = /usr/lib/odbc/virtodbc.so

- /etc/odbc.ini
[ODBC Data Sources]
VDS  = Virtuoso

[VDS]
Driver  = virtuoso-odbc
Description  = Virtuoso Open-Source Edition
ServerName  = localhost:1111

[VOS]
Driver  = /usr/lib/odbc/virtodbc.so
Description  = Virtuoso OpenSource Edition
Address = localhost:1111

OntoWiki

OntoWIkiはRDF用の閲覧・編集環境です。CMSと言ったほうがいいかもしれません。

とりあえずphp5とapacheの基本的な設定をしておく必要があります。解説を書いている方がたくさんいるので、やり方はググってください。一点追加で必要なのが、php5-odbcのインストールです。

$ sudo aptitude install php5-odbc

php5とapacheをインストールしたら、InstallFromMercurialに書かれている通りに、レポジトリから最新のソースをインストールします。

$ cd /var/www
$ hg clone https://ontowiki.googlecode.com/hg/ owrep
$ cd owrep/ontowiki/src/libraries
$ ln -s ../../../erfurt/src/Erfurt .
$ ln -s ../../../RDFauthor .

$ wget http://framework.zend.com/releases/ZendFramework-1.9.4/ZendFramework-1.9.4-minimal.tar.gz
$ tar xvzf ZendFramework-1.9.4-minimal.tar.gz
$ mv ZendFramework-1.9.4-minimal/library/Zend .
$ rm -rf ZendFramework-1.9.4-minimal.tar.gz ZendFramework-1.9.4-minimal

$ cd /var/www/owrep/ontowiki/src
$ cp htaccess-dist .htaccess
$ cp config.ini-dist config.ini

次にUsingOntoWikiWithVirtuosoを参考にconfig.iniの設定をします。

[private]
store.backend = virtuoso
store.virtuoso.dsn = VOS
store.virtuoso.username = dba
store.virtuoso.password = dba

その後OntoWikiに必要なディレクトリ作成します。


$ mkdir cache log uploads
$ chown www-data:www-data cache log uploads 

Apacheの設定をします。そのままトップに置くのなら/etc/apache2/sites-enabled/000-defaultのDocumentRootと該当Directoryを変更します。

DocumentRoot /var/www/owrep/ontowiki/src
<Directory /var/www/owrep/ontowiki/src>

Apacheを再起動した後、http://localhostにアクセスしてください。問題なければOntoWikiが表示されます。ユーザ名 Admin パスワードなしでログインすると管理画面になります。

Conference Model Demo

FirstStepにConferenceデータのデモの作り方がかかれています。注意する必要があるのは、もしlocalhost以外で動かす場合、Google Maps API Keyの設定が必要です。API Key取得ページで生成した文字列をontowiki/extensions/components/map/component.iniに設定します。

- ontowiki/extensions/components/map/component.ini
apikey.google = "生成した文字列"

オライリーさんの”Programming the Semantic Web”を有志で監訳した本が6/26に出ます.サンプルコードは監訳者一同が結構書き直して動くようにしたので,試しながら読めます.言語はPythonなんですが,Linked Dataなど,現在Web上にあるデータをどうやって使うのかという話がメインなので,他の言語でも役立つはずです.よろしかったら是非.

アマゾンのサーバでエラーが起こっているかもしれません。
一度ページを再読み込みしてみてください。

しばらく慌ただしかったのでブログを書けずにいました.twitterでは報告済みなのですが,新しいプロジェクトを始めるために4月末で早々に前職を退職し,5月中旬から別の職場に転職しました.Interop2010のW3Cブースにて概要を話しましたので,紹介代わりにスライドを貼っておきます.

同時期にW3CでもLibrary Linked Data Incubator Groupが始まりました.1年時限付きのグループで,既存の事例集めや要求事項まとめなどが目標のようです.このプロジェクトからも取り敢えず数名参加しています.しかし,一度標準化の世界に関わるとどこ行っても関わることになっているような気がしてこの世界狭いなと.

念願のiPadを昨日手に入れたので,色々いじっている最中です.最初の印象はやはり”でかいiPhone”でしたが,色々触ってみると面白いです.

まず,Photosがかなりいいです.iTunesがiPadとの同期の際に,写真をiPad用に変換してくれます.この作業のために最初の同期に時間がかかるのですが,おかげでかなり綺麗に写真をみることができます.また,ScanSnapで取り込んである名刺のビュアーとしても良いですね.

iPad用アプリとして良くできていると思ったのはBloombergやBBCなどのニュースサイトのアプリです.ここらへんの人々は気合い入れて作っているようです.日本のメディアもそうなるといいんですが.

また,書籍やコミック用のアプリも純正のiBookをはじめとして色々あるようです.iBook,FreeBook, Comics,Cloud Readerを使ってみましたが,視認性は悪くないです.というか普通に読めます.正直ハードはもうこれでいいじゃんと思ってしまいました.今更ハードウェアから議論せずに,Googleのように各デバイス対応の市場を作るというアプローチのほうが正しいと思いますね.

iPad用アプリケーションはユニバーサル版(iPhone/iPad両用)とiPad用に別版が作られている場合と二通りあるようで,有料版は改めて買わせるために分かれている場合が多いようです.また,一部のアプリケーションはUSのApp storeアカウントがないと手に入りません.具体的にはApple純正ソフトのPages, Keynote, Numbers, iBookとAdobe Ideasです(他にもあるかもしれません).iBookを使うだけのためにでも,USのアカウントを取得したほうが良いです.私は"$ドルのギフトカードを買う方法 アメリカiTunes Music Store(iTMS) USで自由気ままに洋楽を買う法"を参考に,eBayで購入して作りました.

現在Evernoteのoffline syncをしているのですが全然終わりません.Evernote自体既に2年以上使っていて,それ以前のデータも全て変換して入れてあるので,流石に詰め込みすぎなんでしょうかね.ちゃんと使えるようになったらレポートします.

"Apple iPad 総合まとめWiki"は参考になりました.現状一番情報が集まっているのは2chの各種iPadスレだと思います.

Webを支える技術 – HTTP、URI、HTML、そしてREST

Amazonで予約して購入していたのですが,やっと読みました.Webアーキテクチャや基礎技術についてのとても良い教科書だと思います.去年まで3年ほど分散情報システム構成法という講義を何人かで担当していましたが,この講義の最初の数回分の教科書として使えます.

15-17章の郵便番号検索サービスはcontent-negotiationでRDFも返してくれると嬉しいなと思いましたが無理ですかね?ここでも読み仮名語彙問題はでてくるのですが.

後,この本読んだ後にはArchitecture of the World Wide Web, Volume Oneを読むのがお勧めです.

アマゾンのサーバでエラーが起こっているかもしれません。
一度ページを再読み込みしてみてください。