RU-EVAL-2012: Evaluating dependency parsers for Russianстатья

Дата последнего поиска статьи во внешних источниках: 9 декабря 2016 г.

Работа с статьей


[1] Ru-eval-2012: Evaluating dependency parsers for russian / G. Anastasia, I. Maxim, L. Olga et al. // Proceedings of COLING 2012: Posters. — IIT Bombay, Mumbai, India, 2012. — P. 349–360. The paper reports on the recent forum RU-EVAL - a new initiative for evaluation of Russian NLP resources, methods and toolkits. It started in 2010 with evaluation of morphological parsers, and the second event RU-EVAL 2012 (2011-2012) focused on syntactic parsing. Eight participating IT companies and academic institutions submitted their results for corpus parsing. We discuss the results of this evaluation and describe the so-called “soft” evaluation principles that allowed us to compare output dependency trees, which varied greatly depending on theoretical approaches, parsing methods, tag sets, and dependency orientations principles, adopted by the participants.

Публикация в формате сохранить в файл сохранить в файл сохранить в файл сохранить в файл сохранить в файл сохранить в файл скрыть