スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

図書館総合展3日目

図書館総合展の3日目。今回参加した最後のフォーラムです。

図書館資料を100パーセント有効活用!
「OPACを超える瞬間~図書館の現場から」

スピーカは片岡さん@九大と田邊さん@慶応(Next-Lの田辺さんとは別の方ですので念のため)

[サンメディア松下さん挨拶]
大学の立場からの発表なので企業には関係ないと思われる方もいるかもしれないが、次世代OPACの話は企業にとっても大事なポイントになるかと思う。配布資料にはないスライドや話がたくさんあるが、録音やスライドを写真にとるのは遠慮してほしい。ここでしか聞けない見られないと言うものを持ち帰ってほしいので。

●と言われてしまったので、ここにどこまで書いてよいやら迷うのだが・・・事後にBlogにアップしてはいけないとは言われてないはず。だってこれを共有しないのはもったいない。まあ、もし何かあればご指摘ください。

[概要:片岡さん@九大]
どうして、次世代OPACに代表されるような新しいプラットホームが必要か、というところから話を始めたい。OPACに代わる検索プラットホームがなぜ必要か。情報技術が人の思考のように使えるように進化してきた。GoogleやiPhone、PagerankやAmazonのリコメンド。人の行動や発想にあわせて進化してきた。一方、図書館が提供してきた情報ツールは、それと対比すると、魅力が薄れてきた。従来のOPACと横断検索。ただ図書館が提供しているコンテンツの意義が薄れたわけではない。インターフェースを改善することで、もう一度光をあてることができるのでは。

●九州大学附属図書館のWebpageの紹介。
「とにかく検索」というのを用意している。ここではOPACのほか、EJ、CiNii、 SCOPUSなどが検索できる。その他に検索ツールのリストを提供したり、学内でデジタル化した資料、機関リポジトリ、貴重書のコレクションなどが個別に提供されている。しかし利用者から見ると、それぞれの使い方を知らないと見つけにくいのではないか。Googleのように1つで見せるようにアクセス統合をしないといけないのではないか。ただ、種々雑多なものになってしまうと見つけにくい。どうやって見つけるか。
→ということで、出てきているのが、例えば適合度ランク、文字情報だけでなくアイコンを使う、表紙イメージ、ファセットブラウジング、パーソナライズ。Aquabrowserでは MyDiscoveriesという機能でレートをつけたり、リコメンドが提示されたりする。こうした見つけやすくする機能も必要。
●シカゴ大学のlensで次世代OPAC的機能を紹介。lensはAquabrowserを使っている代表的なところの一つです。
http://lens.lib.uchicago.edu/

その他にいくつか紹介すると、
・オクラホマ州立大学のBOSS:あまりにもわかりやすいネーミング。学生が「ちょっとBOSSで探してみよう」とか使ってくれるのでは。
http://boss.library.okstate.edu/
・Encore:適合度ランクがわかりやすく表示されている。●一瞬で終わったのでどこを例示したかわかりませんでしたが、Encoreはどこを見てもあまり大差ないです。
・トロント大学→FRBR的に同じものをまとめている例。●”neuron”で検索してみるとよろし。これはEndecaというエンタープライズサーチのソフトを使っているものです。
http://search2.library.utoronto.ca/UTL/search.jsp
・NCSUのTriangleサーチ:近隣の大学の所蔵情報をいっぺんに見ることが出来る。●これもEndecaだったと思います。
http://search.trln.org/search.jsp
・ダートマスカレッジのSummon:SereialsSolutionsの新しいサービス。ライセンス契約してるデータベースの情報をシアトルにあるSS社のサーバに蓄積してくれるので、大学で検索システムを持つことなく、SSでデータの管理をしてくれる。
http://www.dartmouth.edu/~library/home/find/summon/
●Summonは昨日のPrimo Centralと対比できるかもしれません。

他にもUniversity of WashingtonのWorldCat Local、オープンソースのBlacklight、Vufindなどがある。例えばMiylrin http://mirlyn.lib.umich.edu/

こうしたいわゆる次世代OPACとは何かというと、図書館の情報アクセスプラットフォームということができる。人の思考のように探し出せるように。そしてパーソナル化、ソーシャルネットワーキング化。参加することでみんなで共有できるようにならないか。

[田邊さん@慶應]
Primoの事例紹介

現時点で開発中であるため、成果報告や機能説明の場ではなく、現状の課題と夢の共有の場だと思って聞いてほしい。また開発中のため学外秘事項が多い。あらかじめ御容赦いただきたい。ここでよく言われるのが、「慶應だからできるんだろう」とか「九大だから」とか。そうではなく、互いに知恵を出し合ってこの危機を乗り越えることが大事だと考えている。それからこういうフォーラムはいい話を聞いた、だけで終わってしまうことが多い。今日の話をあとにつなげていく、続けていくことが大事。

まず次期システムへの移行の背景から説明したい。背景としてあるのが、ベンダへの閉塞感、それからシステムライブラリアンの放出や不足、予算の問題、1大学でシステムを維持することの限界。これまでの図書館システムは利用者を無視した業務中心のシステムだった。外部と連携しずらい仕組み。慶應ではご存知かもしれないが、LibQUAL+とかやったけど、図書館のシステムは使われてない。OPACって何?というレベル。世間では全文検索だったり、ソーシャルメディアがたくさん出てきている。Web2.0というのは少し前に言われていたが、Web3.0の到来=[個] の時代が来たように思う。つまり個がどんどん外に出て行く時代ではないか。

KOSMOSでやったこと
KOSMOS-I:集中型のシステム:しかしこれはてんこもりで身動きが取れない、レスポンスが出ないなど業務、利用者への影響が大きかった。
KOSMOS-II:ダウンサイジング:システムのスリム化をはかり、分散していた業務の集約を行った。
そしてKOSMOS-III:でやりたいこと。インターネットとの親和性、業務の効率化、組織分散しシステムを集中させる。
利用者のアクセスパスが今はぐちゃぐちゃ。それをインターネットから直接引き込み、リゾルバ的なものを解してナビゲートしていくものを考えている。業務モデルを変えないと、システムだけ入れてもダメ。

慶應では数年前にSFXとVerdeを入れた。その時点で図書館システムとしてもExLibris社の製品を目論んでいたが、結論ありきではなかった。 ExLibris社の製品の連携図を描いてみたが、実はそれほど連携がよくない。SFX・VerdeとAlephの連携はそれほど密でない。

Aleph は非常によく出来ているシステムだが、元は汎用機で動くCOBOLベースのシステム。そこは紙ベースの伝統的な図書館のシステムであり、その外側にSFX やMetalibなどいろいろな製品をつけることでデジタルの世界に対応している。他方でI社は伝統的な図書館システムの中にどんどんデジタルな部分を埋め込んでいく。すごく対照的。
現時点では利用者へのサービスフロントをどうするかで悩んでいる。OPACなのかPrimoかもしくは両方を使う、ハイブリッドか、悩んでる。近日中に方針を決める予定。OPACとPrimoの位置づけをどうするかという点。どういうリソースをどのように使い分けるか。AlephのOPACは紙主体。もちろん電子リソースを入れることもできるが、電子リソースの情報は基本的に外部からとってくるものであり、外部に依存しているのでそのデータには図書館員が手を入れないとすると、デジタルその他をすぺてPrimoに取り込んで紙の部分をOPACとして残すということも考えられる。すべてはまだ検討中。
Primoのバックオフィス部分の画面コピー(管理画面)。ここでは正規化とかFRBRizeとかのロジックを構築する。これ以上見せられない。それからAlephだけで足りないものについては外付けの開発も行っている。

またそれとは別に全文検索のエンジン実証実験も行った。平和情報センターのText Navigator、Bizsearch、Cache、FAST。トータルでFASTが一番よかった。もしかするとあるいはこうした全文検索のエンジンを使うのか、そういったところも視野に入れてサービスフロントを検討している。FASTを使っている面白いサービスの例として、BIGLOBE感性検索 温泉版がある。
http://kan.navi.biglobe.ne.jp/onsen/
●温泉に行きたくなるww

[片岡さん@九大]
NTT データ九州と共同でXC(eXtensible Catalog)を採用して、開発を進めている。XCはオープンソースのソフトで、図書館資源の発見だけではなく、メタデータ管理のためのツールでもある。まだ開発中で、正式版は来年1月にリリースされる予定で、まだインターフェース部分がないがGoogleCodeで公開されているものを使って開発を進めている。国内のシステムベンダーにオープンソースを使うことに踏み出してもらったのは非常にありがたい。XCはロチェスター大学のプロジェクトでアンドリューメロン財団やパートナー機関の助成によって開発している。開発後はXC Organizationを立ち上げて運営していく予定。九州大学はそのパートナー大学に入って一緒に開発を進めている。
UIはファセットブラウジング、FRBRize、高いカスタマイズ性を持っている。図書館向けのウェブアプリケーションフレームワーク。システム間接続はOAI-PMHでのハーベストが可能。貸し出し、認証の連携はNCIPを使う。図書館システムからはOAIツールキットでOAIをしゃべることが出来てNCIPツールキットで NCIPを扱える。メタデータサービスツールキットでデータを集約し、MARCXML化あるいはDC化したり、正規化して、XCスキーマを生成する。ユーザインターフェースは、よく使われてるCMSのDrupalを使う。 

九大がこのXCをどう使おうとしているかというとまず、図書館システムであるNALISにSS社から買ったEJ、E-bookのデータを入れる。それからWebsiteのデータも入れ、契約しているBookデータベースの目次情報(Webcat Plusなどでも使われているもの)を入れる。Bookデータベースは和書だが洋書についてはSyndetic Solutionsのデータを使おうと思っていて、現在交渉中。それらを統合してXCに入れる。それとともに論文情報を入れる。今まではOPACでは探せなかった。CiNii のAPIを使って論文情報を取り込む。それからQIRとデジタルコレクションのデータ。洋雑誌の論文情報については、Refworksの兄弟製品で RefAwareというのがある。EJのサイトからRSSを集めてくれる。それを使うことを検討中。
これまでの成果といってもまだ途中だが、NTTデータ九州さんに日本語検索Solr用のtokenizerを開発してもらった。


[ディスカッション]
<どうやったら導入できるか>

片:残りの時間でディスカッションをしたい。時間も限られているので、重要なテーマから。まずは、どうやったら導入できるか。

田:5ヵ年計画を作ってやっているが、システム選定のポイントとしては5つある。
1.サービス、サポートとメンテナンス体制:やはりサポートがきちんとしていないと困る。
2.インターネットとの親和性と拡張性、googleの図書データとの連携などができること。
3.OPACの基本方針とあっているか。慶應で考えている方針とあっているかということ。多言語対応の実績と日本語対応への意欲。それから重要なのが次世代OPACではなく、多面的な情報検索ツールであること←これが必要だし、慶應が目指していたこと。
4.リアルタイムの予算管理:今はリアルタイムでは確認できない。
5.価格:もちろん価格も重要。
進め方としてはRFPを作成し、それに基づく提案依頼を9社に投げた。提案が出てきたのが3社、提案コンペを行い一次選考をした。優劣つけがたかった2社に絞って最終選考を行い、政策的な決定もあってEL社に決まった。

片:お金は?
田:今のシステム予算を超えられなかった。新しいことをやりたかったので、ビルドアンドビルドを計画していたが、駄目だった。HWも今はx万だがx万ぐらいに抑えた。
●さすがに金額は伏字としました。
今の予算の中で、やりたい事を実現するためには人も切らないといけない=業務を効率化しないといけなかった。そういった5年分ぐらいのシミュレーションをやって、なんとかいける範囲内になった。

片:九大では合意形成のために、ただ必要といっていても駄目なので、そうした新しい情報検察ツールがあるのが当然という雰囲気に持っていく事を考え論文を書いたりした。なかなか国内ベンダーにはやる気が見えないところで、地元のベンチャー企業なども考えたが、将来に向けてやりたいと言うところが出てきて(●NTTデータ九州さんですね。)そこに落札してもらうことが出来た。筑波はどうですか?

●と前から2列目に座っておられた宇陀先生に無茶振り。事前に仕込んでいたのだろうか・・・

宇陀先生@筑波大:2010年3月を予定し落札業者が決まったところ。もう決まったので言ってもいいかな。リコーさんです。現行システムを2006年に入れた時からすぐに次の計画を立て始め、4年後に向けたWGを作って考え始めた。で次世代でとなった。この話はすれば長いが、おもいっきり省略する。これだけで1時間ぐらいしゃべれる。片岡さんは外国製でもいいものがあるなら入れよう、という発想だと思うが、筑波は日本のベンダーにも、もっとがんばってもらわないといけないということで、ベンダーに強く言ってリコーさんと共同開発をしているところ。もしかしたら日本初の次世代になるかもしれない。ただどうしても外国の製品には劣ってしまうし、今日の九大のビジョンをきいてすごいと思ったので頑張らないといけない。予算は筑波大学全体のシステムを統轄する部署で精査されるが、図書館はそれだけ金が要るのかと聞かれた。図書館というのはある意味予算を削られやすいところだが、筑波ではディフェンスに成功した。それ(予算削減)にどう抵抗するかというのが大事。それに対して筑波では、既に企画書、館内の合意があった。大学執行部に対して次のシステムはこうしたいというものを、しっかり用意していたのがよかった。パートナー戦略については、リコーもそうだがSS社、外国メーカも踏まえたうえでいろんなところで情報交換を行っていった。きりがないのでこのくらいで。重要なのは準備が必要と言うこと。訊かれたときに何も考えていないとオフェンスもディフェンスもできない。これは慶應、九大も同じだと思った。

<海外製でも日本の状況に対応できるか>
片:それでは次の話題として、皆さん興味があるのが、海外製でも日本の状況に対応できるのかという事だと思う。日本語のインデキシングとか。XCではNTT データ九州さんに開発してもらっていいものができそうなところ。ファセットブラウジングは分類表の違いがあって、LCCとNDCとうまくできるかというところだが、トライアンドエラーで進めてきている。データの中に件名標目があるとよいのだがNACSIS-CATに入力されているデータだと件名が入力されているものが少ない。これは九大単独でできることではないので、そこはNDLとかNIIとかで頑張ってほしいところ。できればこちらからもアクションしていきたい。

田:慶應では代理店等を使わず、直接EL社とやっている。日本語対応のためのローカライズ、カスタマイズも膨大なマニュアルを読み込んでやっている。あと日本語の検索だが、形態素かn-gramかという問題がある。これまで図書館では形態素解析でやってきてn-gramではやりきれないところがある。OPACのほうでは形態素で何とかできないか、PrimoはBi-gramでいいところまで来ている。図書館のOPACの世界観を変えるということが必要だが、形態素解析でやるとそれが変わらないんじゃないか。個人的には両方使うハイブリッドにしたい。こういうと図書館の人は嫌がるが、多少ごみが出てもよいのではないか。ファセットとか絞込みが十分できるので。ファセットはどうやって統一を取っていくかは確かに課題。それから日本語版と英語版の画面だが、それはコンフィグファイルを分けてできるので、問題ない。その辺はさすが多言語に慣れている。

<他機関やベンダーとの連携は?>
片:これからは単館でやる時代やNIIに頼る時代ではない、というところもあるが。久保山さんどう?MLの話とか。
●またしてもフロアに無茶振り。

久保山さん@阪大:MLの話、2年ぐらい前から次世代OPACには興味を持っていて、まずは北米の事例集サイトを阪大のサーバ上に作った。最初は阪大の図書館システムのベンダーとそれに関係するところだけでMLをやっていたが、それではちょっと・・・ということで幅広い枠で情報交換できるMLを作った。最近ちょっと停滞気味だが。

片:個別の大学からばらばらに要望が来るとベンダーさんもやりずらいのでは。その辺サンメディアさんはどうですか?

松:海外製の製品を入れる上でのポイントとして1つは言語の問題。次はメタデータの仕様。そのせいでやはり海外製の製品には乗りにくいところがあるが、しかしそれは技術的には解決できるだろうと思っている。情報交換が重要で閉ざされた空間で進めていくには限界がある。今日のフォーラムもそうだが、サンメディアがやるとしたらそのブリッジ、オーガナイザーとして何かできるのではないか。

後藤さん@Serials Solutions:ベンダーの立場として、SS社はこれまでは英語圏に向けて作ってきたが、日本市場に向けてのツールの提供を努力してきているところ。日本の状況は海外とは違って、例えばシステムライブラリアンがいるわけではないとか。そういうところでSSの製品はあっているのではないかと考えている。これからも日本にあった機能とかは、こちらで取りまとめて作っていきたい。

片:やはりベンダーも含めて、パートナーシップとしての姿勢でやらないといけないんじゃないか。

<従来の業務の変革は必要か>
田:システムありきで行けるのか。よしんばサービスはそれでよくなったとしても、それを支えるカタログや閲覧はそれで行けるのか。かなり議論したが、決まらなかった。業務とシステムをトータル的に考えないと、運用をどうするか考えないといけない。そこで見直した。やっぱり業務、業務改革をしないと、業務・人・データ含めたスクラップアンドビルドが必要だといって、ようやくここまで来た。現場を巻き込みながらやっていかないと。トップダウンにはかなり無理がある。経営の用語でコアコンピタンスとドメインというのがあるが、自分の大学の強みを生かしてどこで戦うかということ。業務は標準化してそれで塩漬けにする。その上にかぶせるサービスのところで特色あるサービスをつくればよいのかなと。サービスレイヤーは大学独自で考えていくことが必要ではないか。

片:このあたりの話でどなたかコメントのある方いませんか。

●というところで、林さん登場
林さん@農水研:意識を変えて、このシステム使って業務をまわしていくというのになるまで5年ぐらいかかった。変えていくと言う意識を持っていただかないと進まないが、そのためには業務の変更を超えた後の夢を提示していかないと駄目だと思う。開発当初の現場の担当が、今えらくなっているが今のシステムを見て、「あの時言ってたことが実現できたよね」となるまでシステム構築を3回やってここまで来た。今は技術進歩が早いので、もっと早くできるかもしれない。ゴール、夢の部分を語っていくことが大事では。

<今後の展望>
片:時間もないのでまとめに入りたい。

田:今後の展望。これは個人的な思いだが、流動しないといけないのではないか。それは単なるデバイス、ネットワークの話ではなく。データもシステムもスタッフもインターネットに浮かせていったらどうか。データを論文単位、物理単位に仕立て上げて、見つけやすくする。図書館員もだまってなくていい。スタッフもネットに浮いていっていい。浮いていけば、利用者から見つけやすくなって好循環スパイラルが回るのではないか。このスパイラルを早くして利用者の声をリアルに聞いていきたい。その分析も重要になってくるし、ログから利用者の声を汲み取るのも必要だろう。
期待される図書館サービスはライフログとなるようなもの。全てを認証の中に閉じ込めた知的な作業空間をつくる。例えば Refworks今は最後にきている。いろいろなツールで検索して最後にRefworksに持ってきている。でも、それがトップでもいいのでは。いろんなものがつながっていく。そのLifelogをOpenIDでトラップして提供できれば。必要なのは知的作業空間の創出。
そうした次期システムへの移行に向けたポイントと課題を考えると、サーチの時間を以下に短くできるかという事に尽きる。サーチに使う時間を、考え創作する時間に回せないか。それが使命ではないかとも思う。だから検索が重要。今の検索はワードを入力するものだが、それを脱して、クリックでの絞り込みで最短でたどり着けるパスを提示する。これができないとイーコマースは(機会損失で)死んでしまう。それから業務を効率化し、浮いた人員でサービスをてこ入れする。これも図書館員には反発が多いが、目録の簡素化とか、利用者とのリアルタイムなコミュニケーション。Googleで終わらせてはいけない。全文データをどうやって見せていくか。全文データをどう利活用していくか。

<OPACを超える瞬間とは>
田:最後に、OPACを超える瞬間とは。それは図書館員が図書館を超える瞬間だと思う。目指すは大学の中枢における Center of Excellence。図書館不要論ではなく、図書館リーダーシップ論へ。OPACである以上は図書館で終わってしまう。そうではなくて大学の中心となるものへ、大学の中枢へ。

松:今日の企画はすべて片岡さん田邊さんのもの。今日ここに来た皆さんがCenter of Excellenceを目指してもらえれば幸い。また、こうした機会を今後も続けていければと考えているので、今後もよろしく。

●感想等
いやもう、いうことがない。お二人の熱意、姿勢、ビジョンに打たれた。こういう場を用意してくれたサンメディアさんには大感謝。九大、慶應、そして筑波がこれからどういうものを見せてくれるか超楽しみ。

うー、こういう仕事したい。ただそれだけ。こうした刺激を受けられる事が図書館総合展フォーラムの醍醐味。
思い切って言い切ってみよう。これから次世代の図書館システム・サービスを入れたいと思っている方、今だったら「あたしをひろうとおとくです」ww いや、まぢで。

スポンサーサイト

図書館総合展2日目 その2

図書館総合展2日目その2

2日目2つ目のフォーラムは
「EX Libirisが実現するサービスの統合化と利用者環境の向上」です。
裏番組の貸出履歴も魅かれていたのですが、こちらを選びました。

司会:増田さん@ユサコ
2001年からEL社の総代理店をやっており、総合展では今年もEL社のサービスについて講演をいただく。講師はTamar Sadehさん(タマ・サデさん)もともとソフトウェアのエンジニアをやっておられて、今はEL社のマーケティングディレクターとして、オープンプラットフォーム戦略を担当している。

Tamar さん
ある論文を紹介するところから始めたい。1977年のノーベル物理学賞を受賞したフィリップ・ウォレン・アンダーソンの論文
P. W. Anderson More Is Different, " Science New Series, Vol. 177, No. 4047 (Aug. 4, 1972), pp. 393-396
●この論文の一部を取り出して紹介されたのですが、どの部分だか特定できていません。すみません。わかる方がいたらお知らせください。最悪、増田さんに聞いてみるか・・・

学術文献の総数がどれだけあるか。これは非常に難しい。出典が違うと数が違う。学術雑誌の定義や関係性もはっきり決まっていないのではっきりはわからない。
学術機関では次のようなものを導入している。200から600のデータベース。抄録や索引データベースそれからフルテキストのデータベース。20000から 90000タイトルのジャーナル。例えばハーバードは90000タイトル契約している。電子ブックも登場していてさらに拡大中である。また音楽資料、画像資料、統計、リサーチレポート、データセットなど他にもいろいろある。学術機関が導入するものはエンドレスに増えていく。

それでは、どのようにして各機関はそうしたリソースへのアクセスを可能にするか。昔は静的なHTMLで個別にリンクをはっていた。それが自動生成されるようになった。
●ここでハーバードのSFXとMetalibの例示

1999年にSilverplatterが新しい試みを始めた。インターネット上の学術コンテンツの新たなナビゲート手法。図書館、出版社、ディストリビュータ、技術開発者との協力で大きなリポジトリを作ろうというもの。しかしこれは失敗した。
 ←まず市場が準備できていなかった。データプロバイダがデータを出したがらなかった。それから技術もまだ不十分だった。さまざまな機関からのすべてのデータを集めて、1つのところに落とし込むことが10年前はできなかった。

その他にも大規模プロジェクトがある。
デンマークのDTUが行っているDADS ●http://www.dtic.dtu.dk/infosog/dads.aspx
スウェーデンルンド大学のELIN  ●http://www.lub.lu.se/en/about-lub/organisation/lund-university-libraries-head-office/information-about-elin.html
そしてOhio link ●http://www.ohiolink.edu/
例えばDADSには80ミリオンの論文がある。

他の手段として、いわゆるメタサーチがある。EL社のMetalibは1500機関が使っていて人気はある。しかしよい点悪い点がある。
メタサーチの長所
 ・単一の窓口になりうる。シングルポイント。
 ・検索のスコープをデータベースやカテゴリによって絞ることができる。
 ・常に最新のデータが得られる。常にDBにアクセスして探しているから。
 ・データの重複もない
 ・導入が容易。

メタサーチの短所
 ・すべてのリソースがメタサーチで対象にできるわけではない。
 ・比較的遅い。それはリソースのレスポンスに依存するから。
 ・取得するレコード数に制限がある場合がある。
 ・異なるDBからの結果を統合することの難しさ。

で、今日ではどうなのか?さまざまな出版社から出る大量の情報を提供する他の方法があるのではないだろうか。

ユーザは単一インターフェースを志向している。技術も10年前より格段に進歩した。情報プロバイダも発見されやすさを意識している。昔よりデータ・メタデータが提出されやすくなっている。
→巨大な統合されたデータベースを作る時期に来ているが、しかし賢明に注意深くやる必要がある。

Wisely and carefullyとは?
 ・利用者が誰なのか
 ・機関を核として機関が必要なものを提供する必要
 ・利用者にフォーカスをして考える必要
 ・リコメンデーションも必要。関連資料へのリンクツールとか関連のある適切なサービスを提示するもの

→データはそこにある。しかしそのニーズは適切な技術によってサポートされるべきである。

近年多くの試みがある。SS社のsummon、OCLCのworldcat、ebscoのdiscovery service、そしてEL社のPrimo Centralである。
●Primoの検索結果一覧の例を提示
DBからの論文と蔵書が同じ画面で、関連するものが適切に提供されるようになっている。

Primo Central
学術情報の集中インデクスとして機能する。論文、電子ブック、他に広がり、グローバルかつ地域的に重要な学術アイテムを対象とする。EL社がホストし、メンテナンスを行う。Primoのライセンスを持つ全てのカスタマーが使うことができる。Primoによって、統合した検索結果の表示、関連度によるソートを行うことができ、メタサーチではないので、スピードも速い。集中インデクスであるということはつまり次のことを意味する。
・メンテナンスが継続される
・情報プロバイダからの同意を得る
・コンテンツをハーベストしノーマライズして提供する

次世代(Next Generation)のディスカバリーツールを通して集中インデックスが利用者に成功するディスカバリーを提供する。そしてこの集中インデクスは図書館ににユーザのサーチを知るためのツールを提供するべきである。次世代のシステムは洗練されたツールを提供しなければいけない。
そしてデリバリーについては、現在と同様に情報プロバイダから提供され、リンクリゾルバを通して、フルテキストが提供できる。Primo Centralを使うと図書館内も外も両方のソースを探すことができる。Primo Centralがメタデータを持っている。ユーザからは図書館内のデータか外のデータかを意識しないでいいことになる。Primo CentralはPrimoのアーキテクチャに対応しておりPrimoのテクノロジーでさまざまな学術情報にアクセス可能となる。図書館のカタログや Primo Centralの関連がある部分(=購読している部分?)そしてそれ以外のリソースにもアクセスできる。Primo Centralはデータ統合のパワーを持っている。コストパフォーマンスがよく、リモートリソースへのアクセスを可能にする。Primoのアーキテクチャにフィットしいる。機関がユーザに提供する検索環境をコントロールできる。

利用者から見ると大量のデータ+Googleタイプの検索+関連度ランキングという事になる。一方でユーザは結果リストの最初だけ見るので、関連する資料を見失う可能性が出てくる。そのため利用者が必要な資料の発見を支援することが必要となってくる。

ファインダビリティの強化のための新しい方法。
検索はスタートに過ぎない。検索結果リストを活用する。つまりファセットブラウジングや新しいサーチの提案。それからユーザが明示的・暗示的に出す意見をインプットとできる。資料を評価したり、その他の関連資料を発見する支援として。

Webは多角的に変化しつつある。単に情報を提供する場所でなく利用者から情報を得る場所にもなっている。

●Amazonの例を紹介。
カスタマーレビュー、システムが他の人が一緒に何を買ったか、他に何を買ったか、最終的に買った人がどれだけいるかなどを提示。タグ付け、レーティング、レビューに対する評価、ユーザのディスカッションの場所もある。ユーザが作るリスト→利用者を理解し、効率的サービス→売り上げ拡大

利用者にとっては、資料の評価が簡単になる。関連する資料を見つけるのが簡単。なにより楽しい。自分が参加することを楽しいと感じることができる。

そこで学術分野に目を移してみる。
利用者からの明示的な貢献としては、引用、レビュー、タグ付け、評価などがある。Primoをみるとレビューができる、タグ付け、レーティングもできる。 Natureがこれに関してプロジェクトを開始した。科学者・学者にレビューを書いてもらうというもの。しかしこれは失敗した。研究者は別の論文を書くことでレビューしたいと考えているからだろう。
Nielsen, M. ”Doing science in the open", physicsworld.com, 2009
http://physicsworld.com/cws/article/indepth/38904

暗示的なものとしては次のようなものがある。Circulation(流通)のデータ、検索プロセスの傾向、利用者のアクション(閲覧、ダウンロード、送信、ブクマ、印刷、保存)。これをどう使っていくことができるか。コレクション構築、資料の評価、トレンド分析(3ヶ月、6ヶ月後の動向分析ができる)、関連度ランキング、リコメンデーションなどに活用できる。

利用に基づく評価とはどういうことか。これまでは活用してこなかったものである。authorshipからreadershipへの移行が起きている。タイムリーに評価が得られる。引用を元に分析すると、引用されるまで1年とか2 年とか時間がかかる。しかし利用に基づく評価はそんなに待つ必要がないし、h-indexやImpact Factorがカバーできないような新しいタイプの資料もカバーできる。ただしこれはそうした既存の指標に取って代わるものではない。既存の指標に変わるものではなく、追加の指標として使うものである。

Library thingの例示。リコメンドをだしている。
ドイツの大学(BLB):貸し出しを受けた人の情報を集めて、リコメンドを提示。
●すみません。どこの大学だったか具体的にメモを取りきれず。

利用実績を使う際の課題としては次のようなものがある。
 ・プライバシーの問題
 ・包括性:真に使えるものになるためにはコレクションの包括性が必要。
 ・正当性:利用データが信頼に足るか。validity
 ・標準化:さまざまなソースから情報を得るので、同じ形で得る必要がある。
 ・量が必要:少数では意味がない

最初の課題に戻ってみる。一貫性を持って、数えていくにはどうしたらよいか。
COUNTERプロジェクトの紹介
出版社主導のプロジェクト。2002年に開始。100以上の出版社が参加し、15,000以上のフルテキストがある。定義しているのはレポートと実務指針。そしてCOUNTER準拠の利用統計を転送するメカニズムとしてSUSHIがある。これはNISOの規格になっている。

それでは、この統計をどう使っていくか
UKSG(英国逐次刊行物グループ)のUsage Factor projectがある。2006-2007に実施。実験を行い、モデル化をし、問題の特定をしようとしている、一貫性や定義の問題、たとえば論文の出版年や利用年をどのように定義するか。論文の出版日といっても様々ある。アーカイブに入った日か、出版された日か。そうした定義が必要。

もう一つのプロジェクトとして、MESUR
これはロスアラモス研のプロジェクトで、OpenURLを開発した、ヴァン・デ・ソンペルが関わっている。1 billionの利用トランザクションを出版社、アグリゲータ、図書館から取得し、メトリクスを調査しようというもの。
図書館からの情報はSFXのログで提供される。目的は利用に基づく指標を調査し、その正当性を検証することと、学術コミュニティをマッピングすること。39の評価指標をを調査し、3つが重要なものとして出てきた。
・人気:どのぐらいのリンクが張られているか、ジャーナルからのリンク、ジャーナルへのリンク、その数。
・最短経路:ネットワーク上の距離と強さ
・プレステージ:どれだけ一流の雑誌がリンクしているか。
http://public.lanl.gov/herbertv/papers/jcdl06_accepted_version.pdf

引用ベースの分析と比べると、かなり信用できるのではと考えている。こうした研究結果から図書館で使えるツールを提案したい。
→bX

bX は学術資源の新しいリコメンドサービス。OpenURLのフレームワークに基づいて開発されている。OpenURLのログを分析、データマイニングを行いリコメンドするもの。2009年5月にベータリリース。ホスティングサービス。既に170機関が購読中。呼んでいる論文に関連した論文をSFXのメニューとして出したり、Metalibの検索結果、それからxerxesから出すこともできる。もちろんPrimoのVer.3からもリコメンドを見る事ができる。

なぜリゾルバのログを使うのか。標準化された手順で利用者が求めるパスを提示できる。情報プロバイダ、機関を超えて提供されている。すべての機関で同じログが出てくる。そしてたくさんあるので、統合していく基礎となる。リゾルバの仕組みを復習するとリンクリゾルバはハブとして機能するものであるということ。利用者の動きを見てみると、たとえばebscoで何かを検索し、SFXでフルテキストを見る。次いでプロクエストから検索したり、 OCLC FirstSearchから検索をしたりする。SFXのログでは、同じセッションでどれをクリックしたかが記録されている。そのため、それを取り出すと関連性がわかる。つまり同じセッションで探した論文間には関連性があり、それがSFXのログからわかる。
多くの人の、多くの機関のログを集めて分析をすると非常に複雑なグラフが出てくる。これをarticle relationshipsと読んでいる。bXはOpenURLで探した論文の情報を ContextObjectで送る。そうするとそのグラフ(article relationshipsから関連性を見て一番近い論文を出してくる。bXへはAPIを通してリクエストする。結果はXML、TEXT、ATOM、 RSSで返す。

簡単にまとめるとOAI-PMHをつかってリンクリゾルバのログをハーベストする。するとそのログを元に、リレーションシップグラフを構築し、推奨文献リストを作成する。

bXはWeb2.0のサービス。関連性の高い、信頼性のあるリコメンドを提供する。引用と違って何年もかからない。最新の国際的で高品質なデータを元にしている。そしてSaaSとして提供されている。

最後に一つ紹介して終わりたい。
Jeffrey M. O'Brien "The race to create a 'smart' Google"
http://money.cnn.com/magazines/fortune/fortune_archive/2006/11/27/8394347/
webは検索から発見へ。検索は何かを探すものだが、発見は知らなかったものがやってくる。

More is differnt!

<質疑応答>
きんとうさん?@筑波大学:bx、ベータが取れるのはいつごろか。どれぐらいの規模のデータが集まっているか。

T:ベータだからうまく言ってないというものではない。もっと包括的なデータ、テストが必要と考えており、年末までデータ収集は行っている。進行中のプロジェクトである。Google Scholarは2004年から動いているが、まだベータである。ベータで続いていく場合もある。ユーザのクリック数は何千万と集まっている。 Boston Collegeなど。どれだけ使っているかというと、90%までいかないがよくなってきている。bXを使うだけでなくデータを提供するという貢献もできる。

新開さん:紀伊国屋書店
リコメンドのコントロールをどう考えているか。それとEL社の他のアプリケーションとの整理はどうなっているのか。

T:リコメンドとして表示できる数はデフォルトでは3つ。20まで同時に表示する事ができるが多ければよいというものではない。図書館側で決めればよい。bX はAPIで提供されており、リクエストがあればそれに返していくので、どのアプリを使うかはユーザが決めればよいことである。もしbXを使うアプリを作りたいということであれば、当然bXを買う必要がありますけど。

●感想等
情報としてそんなに目新しいことはなかったが、EL社のしたたかな戦略を感じたプレゼン。ちなみにアジアパシフィック担当のvice presidentのOdedも来ており、会場の反応をチェックしていた。

私の理解によればEL社の製品は
・安定したAleph。しかし作りは伝統的で古い。
・売れているSFX。
・Metalib。数は出ているかも知れないが、遅いなど評判は?
・その他いろいろあるが、インパクトはそんなにない。
・Primoは次世代製品として、ちょっと出遅れ?
→これまでは安定したコア製品であるAlephを中心にその周りにいろいろ作る事で、図書館のサービスをトータルにサポートできるような製品ラインナップを用意することで成長してきた。
といった感じ。
そうした課題や市場に対して打てる手を着実に打ってきているなあと。つまり
・古くなったAlephをデジタルの時代に向けてURMに移行させていこうと動き出す。
・売れ筋SFXを使った新しい(しかも時代のニーズみたいなものを取り込んだ)サービスbXの提供。
→売れ筋をベースにさらに売り上げを上げることをもくろむ
・評判?のMetalibはやはり横断検索の限界を示していそう。そこで次世代Primoを売りたいという思惑と、MetalibのフェードアウトをかねてPrimo Centralを立ち上げ。これによって蔵書とEJとかDBをシングルポイントで提供し、かつ性能もよくなるというメリットを売り込むか。

当然bXだって何年か前から開発していたんだろうし、先をみた開発等もしつつ、SFXベースで足元の商売もするという堅実さ。数年後の製品ラインナップは URMとPrimo(その2つと連携してSFXやbX、Verdeが動く。)という構成か。URMとPrimoの出来が今後を左右するのは間違いない。 Primoは現時点ではいまいちな感じだが、次のバージョンでどうなるか。

「海外のベンダーに依存するな」とかいう話もあったようですが、日本のベンダーにこうした戦略やある程度の展望を持った開発を行ってる、行えるところがどこまであるのだろうか。ベンダーに依存しきってしまうなら海外でも国内でも同じ事。ベンダーとどう協力して、どうやって図書館サービスをよくできるか、という事に役立つのであれば海外とか国内とか関係ない。そういう点で(別のエントリで書きますが)NTTデータ九州さんとかリコーさんには期待したい。


Summon というもの

Dartmouth College Libraryが"Summon"のbeta testバージョンを公開した。
http://www.dartmouth.edu/~library/home/find/summon/


SummonというのはSerials Solutionsが絶賛開発中の
いわゆる次世代OPAC

ざっとみた特徴として
・ファセットがチェックボックス
 これはいいのか悪いのか。個人的には
 若干使いずらい気がする。
 複数の選択がやりやすいということか。

・同じくチェックボックスで、フルテキストがあるもの限定や
 図書館外のリソースもあわせて表示、という選択ができる。
 後者はどこから取ってきているのかよくわからない。

・ジャーナルアーティクルが多数。
 これもどこから取ってきているのかわからない。
 fulltextマークが目立っていてわかりやすい。

・ピアレビューを含む学術文献に限定というのもあった。
 どこで(書誌データのどこで)それを判定しているのか。

・フルテキストがあるものは直にフルテキへ
 ないものはリゾルバへ
 図書は、ILSのOPAC(の詳細表示)へリンクが張られている。
 つまりSummonだけだと詳細表示はない?
 →申込等には従来のILSが必要ということか。

・出版年の絞り込みをバーで指定する形式になっているのは面白い。
 見た目で、どれぐらいの件数があるか相対的にわかるようになっている。

Serials Solutionsは北米ではAquabrowserも扱っているが、
今後はどうするのだろうか。
まだAquabrowserの方が見た目は洗練されている気はするが。

Ex Librisのプレスリリース

"Keio University"がAleph(とは直接書いていないが)
を選択した、というのが、
Ex Librisのプレスリリースに出た。
http://www.exlibrisgroup.com/?catid={916AFF5B-CA4A-48FD-AD54-9AD2ADADEB88}&itemid={D882397C-B582-49A3-8CEE-122C2DC302F5}

まあ、ようやく出たかといったところ。

Ex Librisにとってはこれからが長いのだろうなあ。
グローバルスタンダードなILSが
日本での選択肢になれるのかどうか。
というかなってもらわないと、今後困ってしまうと思うのだが。

1.MARCの問題
2.日本語処理とサポート
3.金額
4.カスタマイズ好きな細かすぎる図書館員
5.そしてNIIの動向
といったところがポイントだろうか。

壁は高いね。
携帯なんかよりよっぽどガラパゴスですよ。

↓は未だに積読中。

フラット化する世界 [増補改訂版] (上)フラット化する世界 [増補改訂版] (上)
(2008/01/19)
トーマス フリードマン

商品詳細を見る
フラット化する世界 [増補改訂版] (下)フラット化する世界 [増補改訂版] (下)
(2008/01/19)
トーマス フリードマン

商品詳細を見る
検索フォーム
アクセスカウンター
RSSリンクの表示
リンク
ブクログ
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。