Глава
Correcting collocation errors in learners’ writing based on probability of syntactic links
В книге
.
Automatic verb-noun collocation extraction is an important natural language processing task. The results obtained in this area of research can be used in a variety of applications including language modeling, thesaurus building, semantic role labeling, and machine translation. Our paper de-scribes an experiment aimed at comparing the verb-noun collocation lists extracted from a large corpus using a raw word order-based and a syntax-based approach. The hypothesis was that the latter method would result in less noisy and more exhaustive collocation sets. The experiment has shown that the collocation sets obtained using the two methods have a surprisingly low degree of correspondence. Moreover, the collocate lists extracted by means of the window-based method are often more complete than the ones obtained by means of the syntax-based algorithm, despite its ability to filter out adjacent collocates and reach the distant ones. In order to interpret these differences, we provide a qualitative analysis of some common mismatch cases.
Предложен алгоритм коррекции нелинейности и гистерезиса функции преобразования индуктивных измерительных преобразователей. Разработан виртуальный прибор для реализации предложенного алгоритма. Проведены экспериментальные исследования эффективности предложенного алгоритма на примере дифференциального индуктивного измерительного преобразователя линейных перемещений.
This workshop is about major challenges in the overall process of MWE treatment, both from the theoretical and the computational viewpoint, focusing on original research related to the following topics:
Manually and automatically constructed resources Representation of MWEs in dictionaries and ontologies MWEs in linguistic theories like HPSG, LFG and minimalism MWEs and user interaction Multilingual acquisition Multilingualism and MWE processing Models of first and second language acquisition of MWEs Crosslinguistic studies on MWEs The role of MWEs in the domain adaptation of parsers Integration of MWEs into NLP applications Evaluation of MWE treatment techniques Lexical, syntactic or semantic aspects of MWEsДанное пособие представляет собой сборник упражнений к тематически отобранной лексике, направленных на её активизацию. Темы пособия: важные события; слава и удача; тайны, проблемы, странности; встречи и общение; вмешательство в природу; СМИ. Пособие включает в себя упражнения различной типологии, позволяющие охватить все виды речевой деятельности, публицистические тексты, коллекции мудрых изречений, видео клипы, тесты и шутки. Данное пособие может использоваться как самостоятельно, так и в качестве рабочей тетради с западным УМК уровня Upper Intermediate.
В статье обсуждается методика, позволяющая частично автоматизировать анализ материала для лексико-типологического исследования. Одной из основных задач при сопоставительном изучении семантического поля является обнаружение таких значений, для которых наблюдаются разные стратегии кодирования в различных языках (ср. значение ‘характеризующийся повышенной влажностью’: в русском его выражение зависит от описываемых температурных условий – влажный vs. сырой, в немецком в обеих ситуациях используется прилагательное feucht). Такие расхождения можно проследить, сопоставляя сочетаемость слов исследуемого поля. Для прилагательных сочетаемость, как правило, задается определяемым существительным, которое обычно непосредственно примыкает к атрибуту. Это означает, что прилагательные разных языков можно сравнить на материале двусловных сочетаний (биграмм). Такое сравнение предлагается проводить автоматически, используя биграммы, предоставляемые корпорацией Google, и электронные словари. Реализация метода обсуждается на примере семантического поля ‘густой’ в русском, английском и немецком языках.
Errors in implicative theories coming from binary data are studied. First, two classes of errors that may affect implicative theories are singled out. Two approaches for finding errors of these classes are proposed, both of them based on methods of Formal Concept Analysis. The first approach uses the cardinality minimal (canonical or Duquenne–Guigues) implication base. The construction of such a base is computationally intractable. Using an alternative approach one checks possible errors on the fly in polynomial time via computing closures of subsets of attributes. Both approaches are interactive, based on questions about the validity of certain implications. Results of computer experiments are presented and discussed.