GoogleのAI技術を利用して、日本古文の崩し字を現在の文字に変換するAIツールを開発したという記事。携わったのは、「情報・システム研究機構 データサイエンス共同利用基盤施設ROIS-DS人文学オープンデータ共同利用センター」という、偉い長い名称の研究施設の、「タリン・カラーヌワット氏」という女性研究者。お名前と見た目で、東南アジア、タイ当たりのご出身かなと思うけれど、日本人ではなく海外の研究者がこう言う物を開発するというのが興味深い。
日本人にも馴染みが無い子分の崩し字ではあるけれど、それでも日本の文化であるし研究成果も多く蓄積されているだろうから、日本人研究者ならまだそれなりに資料にアクセス出来るんでしょうけど、海外の研究者だからこそ、そういう恩恵も少なく、こう言うツール開発を考えたのかなと思います。
逆の立場で、日本人が海外の伝統文化とか技術を学んだり研究しようとすると、どうしても日本人気質でがむしゃらに努力することをしがちだけれど、良い意味でこう言う「簡便さを目指す」事で効率をアップする思考というのは、余り日本人には見られない気がしますね。どうしても日本人だと、こう言う事は「手を抜く」と考えがちだけれど、そうじゃなくて必要なところに集中してリソースを配分すると言う事なんですよね。
勿論単純な話では無いだろうけど、文字のパターンを認識して、それを現代の平仮名無いし漢字に変換するわけだから、使用している文字数もそんなに多くないだろうし、学習すれば直ぐに効果がでてきそうな気がする。記事にも書かれているけれど、色々な形で古文書のデータを保存しても、そのうちにその内容が理解出来ない時代が来る可能性もあるわけで、そんな中でこう言う技術は重要だなぁと感じますね。ただ、日本語の場合単に文字を変換するだけでは無く、そこに当て字みたいな物とか、あえて違う言葉を置くみたいな事も多いと思うので、そういう部分の学習というか補完も必要じゃ無いかという気がする。将来的には、そういう部分も含めて「翻訳」出来るAIに成長すると面白いでしょうね。
0 件のコメント:
コメントを投稿