カテゴリー
Blog

IWIN2021 にて Excellent Paper Award を受賞しました!

ひとつ前の投稿にある、Informatics Society(INFSOC)のInternational Workshop on Informatics(IWIN2021)でVerifications of Influence by Unknown Longer Titles of Work on Robustness of Deep Learning NER「深層学習による未知の長い作品題名の固有表現抽出の堅牢性への影響の検証」を報告させていただきました。こちらの論文に対して、Excellent Paper Awardを受賞いたしました。

カテゴリー
Blog

Verifications of Influence by Unknown Longer Titles of Work on Robustness of Deep Learning NER

Informatics Society(INFSOC)のInternational Workshop on Informatics(IWIN2021)で報告させていただきました。
日本語にすると、「深層学習による未知の長い作品題名の固有表現抽出の堅牢性への影響の検証」です。

カテゴリー
Blog

日本語WordNet とWikidata 語彙の相互補完検証

第20回情報科学技術フォーラム(FIT2021)で報告させていただきました。

カテゴリー
Blog

日本語形態素文字種境界法

情報処理学会誌に論文を掲載していただきました。

日本語形態素文字種境界法によるデータベース検索量の削減

  • 閲覧するには情報学広場へのログインが必要です。
  • コンテンツは有料です。

こちらは、日本語に特化した研究となっています。

対話型インターフェースにおいて、入力文に含まれる語がデータベースにあるか確認する際、語の候補を作るにあたり総当たりをせず、形態素の境界と文字種の境界を組み合わせてヒット率の高い候補を作り出す方法を説明しています。この方法では、総当たりをしたときと比較して、最大96%検索量を削減でき、間違った語の検索も抑制できます。

対話型インターフェースのテキスト処理ではとても幅広い語を語彙として扱う必要があるため、外部の、あるいは遠隔の、データベースやLinked Open Data(LOD)を参照する必要があります。そのとき、こういったテクニックが役立ちます。

カテゴリー
Blog

オープン技術特論

公立はこだて未来大学の「オープン技術特論」にて「音声対話インターフェース技術動向」として講義を行いました。例年は11月に大学内で行いますが、今年は新型コロナウィルス感染予防のため、zoomでの開催でした。

https://www.facebook.com/FunICT/posts/3774634412623566

上の写真は、昨年のものです。
カテゴリー
Blog

あけましておめでとうございます

2021年が始まりました。昨年スタートしたPandrbox、初年度から新型コロナウィルスによる世界が困難の中、なんとか1年乗り越えました。そして今年は年初からパソコン環境が壊れるという災難を受けまして、初日から新しいパソコンのセットアップというスタートとなりました。リフレッシュした新しいパソコンで心機一転、今年も頑張ります。

カテゴリー
Blog

はこだて未来大学・高度ICT授業開始

昨年の10月7日の写真です・・・

毎年秋になると恒例の「はこだて未来大学・高度ICT」の授業の季節がやってまいりました。本日より開始です。

今年で9年目となる学部4年生むけのこの授業、内容は「システム提案」を題材に、ITによる企業などの業務改善提案の考え方、提案書の作り方、説明の仕方などを学びます。学生の皆さんには実習で仮想提案を作ってもらい、提案書を書き、提案会としてプレゼンテーションをしていただきます。

技術題材としては、音声対話を企業活動に役立てる内容を考えていただきます。実際にデモも作っていただきます。

毎年この季節になると函館へ行き授業をやっていたのですが、今年はコロナ渦のためzoomで実施。自宅からの授業となっています。ですので、残念ながら活イカ、寿司、うに・イクラ、ジンギスカン、スナッフルスなどの写真はありません。

カテゴリー
News

ブレードランナーを解説

@IT > 自分戦略研究所 > スキル創造研究室に、新作解説記事を公開しました。今回の題材は、またもや勇気のいる「ブレードランナー」。

https://www.atmarkit.co.jp/ait/articles/2009/14/news010.html

解説の都合で、音声操作フォトビューワーも作り、Youtubeに動画を公開。

声がハリソンフォードみたいじゃなくてごめん。

カテゴリー
Blog

@ITさんに取材いただきました

2月に独立した、ってことで@IT 自分戦略研究所様から取材を受け、記事にしていただけました。

おしえて、キラキラお兄さん

エンジニアに学歴は必要ですか?


https://www.atmarkit.co.jp/ait/articles/2005/18/news006.html?fbclid=IwAR2X8RbnjrSxngWKqlphA5gwzpgw95askZLEqDrpN3g5eOcSMB2TsbYd03Q

4歳ぐらいのころ

カテゴリー
Blog

AAAI-20に参加

AAAI-20に聴講参加しました。AAAI-20とは、 Association for the Advancement of Artificial Intelligence の略で、米国で開催されているAI学会の一つです。今回第34回ということで歴史の長い学会です。20は2020年の意味です。

公式ウェブサイト

今回はニューヨーク・ミッドタウンにあるヒルトンホテルで開催されました。

写真の説明はありません。

今回の聴講目的は、はこだて未来大学での研究において研究成果の検証表現のヒントを得るためです。ですので、NLP関連のオーラル発表とポスター発表を中心に聴講しました。

アメリカ開催の学会にしては白人がとても少ないと感じました。1割くらいじゃないかと思います。また、NLP関連のセッションのほとんどが中国からの研究者で、コロナウィルス騒ぎでUSへの渡航許可(VISA)が下りないため発表者が来れず、動画再生という形式になりました。このため、研究者に会えず、情報交換ができないという状況でした。私が聴講したセッションで実際にそこに来て喋っている人は2割程度だったと思います。(36セッション聞きましたが、7~8人しかしゃべってない、ということ)

NLP関連のセッションはいくつかの種類があり(エンティティ抽出、機械翻訳、対話、リレーション、セマンティックなど)、対話セッションが多かったので私にとってはラッキーでした。対話セッションにはチャットボット、ロボットの対話システムの話と、人と人が話している文章を処理する客観的な分析の話が混じっていました。

採用論文の一覧はこちら

セッションの時間割はこちら

採用論文はこちらに掲載されます。今回の分はまだ掲載されていません。

一つのセッションは3部のオーラル発表と、ポスターセッションのライトニングトーク(Spotlightingと呼んでました)を2分ずつやってました。

聴講したものからいくつか気になったものをご紹介。

1834: Leveraging Multi-token Entities in Document-level Named Entity Recognition

Multi-token Entity(ME)はまさに複合語のことで、私の注目している課題と一致します。この論文が提案している手法はME Informed Document(MEID)というもので、Named Entity Recognition(NER):固有表現抽出において100%処理できた、という主張でした。まぁ、辞書ベースでやる点も似ているので「そりゃ100%いくでしょ」ということもありますが、参考にはなります。

10052: Towards Scalable Multi-Domain Conversational Agents:The Schema-Guided Dialogue Dataset

こちらはGoogleの研究で、対話の予測器に Deep Neural Network(DNN) を使うが、話題(対話ドメイン)ごとにDNNを作るので面倒だし無駄が多い、そこで統一できないか、という取り組みの事例。スキーマガイドというのを使うことで共通DNNを実現できた、という内容。すでに34API、16ドメインに対応しているそうで、Google APIとして公開されているそう。検証方法としてDSTC8というデータセットを使って実施しています。

Poster 9649: End-to-End Trainable Non-Collaborative Dialog System

将来、対話型のシステムが「悪いやつから話かけられて、システムから情報を不正に入手する」ことを防ぐAntiSpamとか「システムが子供に話かけてなにかを買わせてしまう」ことを防ぐ PersuasionForGood というような取り組みで、会話内容をフィルターするための検出方法の提案でした。

Poster 1741: Corpus wide argument mining – a working solution

IBM Project Debatorの大量書き込みからSentiment-levelのデータマイニング(テキストマイニング)をする技術の説明。ICAやってた私としては懐かしい感じ。単語やEntityベースのマイニングより意見の傾向を正しく分析できる、という説明でした。IBM Research Haifa研究所の人たちでした。

今回の聴講で学んだことは以下のようなことです。

  • NLP論文はNE解析、Link解析、分類にだいたい分けられそう。
  • NER論文には流行があって、DNN、とくにBI-LSTMを使うものが圧倒的に多い。
  • 英語データセットで精度勝負のものが多い。MultiWOZ, CoNLL, OntoNotes, DSTCといったものがよく使われている。
  • Muman Evaluationという手法を使っている人が多い。アノテーション等から精度を図るのでなく、人間がチェックして精度を図る手法。私の研究には使えるかも。

以上、学会聴講報告でした。