Как переводится амр: что означают и кому принадлежат

Содержание

Имя Amr: значение имени, происхождение, судьба, характер, национальность, перевод, написание

Что означает имя Amr? Что обозначает имя Amr? Что значит имя Amr для человека? Какое значение имени Amr, происхождение, судьба и характер носителя? Какой национальности имя Amr? Как переводится имя Amr? Как правильно пишется имя Amr? Совместимость c именем Amr — подходящий цвет, камни обереги, планета покровитель и знак зодиака. Полная характеристика имени Amr и его подробный анализ вы можете прочитать онлайн в этой статье совершенно бесплатно.

Содержание толкования имени

Анализ имени Amr

Имя Amr состоит из 3 букв. Имена, состоящие их трех букв, обычно дают людям, поведение которых отличает решительность. Приняв некую идею в качестве руководства к действию, такой человек не остановится не перед чем для достижения результата. Проанализировав значение каждой буквы в имени Amr можно понять его тайный смысл и скрытое значение.

  • A — самая сильная и яркая буква кириллицы.
    Личности, обладающие такими буквами в имени, всегда стремятся к лидерству. Нередко они соревнуются с самим собой. Указывает на желание что-то изменить, достичь наивысшего уровня комфорта в физическом проявлении и в духовном.
  • M — застенчивы, любят помогать окружающим, не приемлют варварского отношения к природе, борьба с жаждой стать «центром вселенной». Стремление во всем находить рациональное объяснение. Упрямство под маской благодушия и даже внутренняя жесткость.
  • R — противостоят воздействию извне, уверены в себе, храбрые, увлечённые личности. Способны к неоправданному риску, авантюрные натуры склонны к непререкаемым суждениям. Умение рисковать ради цели. Желание и потенциал для лидерства.
  • Значение имени Amr в нумерологии

    Нумерология имени Amr может подсказать не только главные качества и характер человека. Но и определить его судьбу, показать успех в личной жизни, дать сведения о карьере, расшифровать судьбоносные знаки и даже предсказать будущее. Число имени Amr в нумерологии — 5. Девиз имени Amr и пятерок по жизни: «Я свободен, как птица!»

    • Планета-покровитель для имени Amr — Меркурий.
    • Знак зодиака для имени Amr — Близнецы, Водолей.
    • Камни-талисманы для имени Amr — александрит, сердолик, гелиодор, перидот, цинкит.

    «Пятерка» в нумерологическом ядре – это признак стремления к абсолютной свободе и полного неприятия любых правил и ограничений.

    «Пятерка» в числах имени – Числе Выражения, Числе Души и Числе внешнего облика – свидетельство наличия характерных для этого числа способностей. В частности – умения находить общий язык со всеми, кто представляет интерес. Люди с именем Amr, которым покровительствует число 5 в нумерологии, имеют выраженные способности к коммерции, поэтому и интересы их зачастую сосредоточены в этом направлении.
    Любители приключений, пятерки ценят острые ощущения и перемены в жизни. Эти люди не терпят однообразия, быстро теряя интерес к любой монотонной деятельности.
    Часто они непредсказуемы, способны быстро изменить свое мнение, а потому не отличаются надежностью.
    Пятерка по имени Amr — это яркая индивидуальность. Она может быть окружена друзьями, но очень хорошо справляется со всеми проблемами самостоятельно. Часто рождаются гении. Существуют два типа Пятерок. Это может быть человек с сильной волей, уверенный в себе. И наоборот, слабохарактерный, но талантливый, который раздает свои таланты всем подряд. Пятерка часто ленится, не любит длительные нагрузки, более спринтер, чем бегун на длинные дистанции. Поэтому Пятерке легче и лучше обучаться чему-то интенсивным методом. Пятерка — это число вдохновения, служит Музой для окружающих. Пятерка по имени Amr всегда находится в движении, не выносит рутины, не может долго оставаться в четырех стенах. Пятерка имеет хорошую интуицию. Очень восприимчива к запахам и вкусам. Увлечение мистикой может дать Пятерке недостающее в жизни приключение. Скука и рутина ее враги, поэтому порадовать Пятерку с именем Amr может свобода и новые впечатления.

    • Влияние имени Amr на профессию и карьеру. Несмотря на довольно солидный багаж врожденных качеств, возможностей для профессиональной самореализации не слишком много. Оптимальный вариант, который предлагает число пять, – собственный бизнес, соответствующий интересам. Такой, где на каждом этапе будут возникать ситуации, требующие применения всех способностей и талантов. Подходящие профессии: реформатор, изобретатель, фрилансер, фотограф. Любые профессии, связанные с командировками.
    • Влияние имени Amr на личную жизнь. Личная жизнь «пятерок» часто становится предметом живейшего интереса и постоянного обсуждения для их друзей и знакомых. Пятерки очень свободолюбивы, не любят ограничения и во всем проявляют свою независимость. Идеальную вторую половинку им найти сложно, и делать это они могут достаточно долго. Им нужен партнер, который будет доверять им и принимать их желание разнообразить свою жизнь. Пятеркам с именем Amr подходят тройки, семерки и девятки.

    Планета покровитель имени Amr

    Число 5 для имени Amr означает планету Меркурий. Люди этого типа обладают в высшей степени живым и изворотливым умом. Носители имени Amr склонны проявлять инициативу, любят новизну и частую перемену обстановки. Им чужда рутина. Люди с именем Amr берутся за любую работу, и та буквально горит у них в руках. Все у Меркуриев получается, все спорится. Стремительность у них просто в крови. Владельцы имени Amr все быстро делают, быстро думают, быстро принимают решения. Люди по имени Amr, находящиеся под влиянием планеты Меркурий, тянутся к знаниям, самокритичны и умеют критиковать друзей, но делают это мягко и к месту, ничем не обижая человека. Как правило, у них все получается, но если вдруг их постигает неудача в делах, то они довольно быстро впадают в уныние. Обаяние, которым обладают люди с именем Amr, заменяет им многие другие качества, необходимые в семейной жизни. Они не любят вести хозяйство, но проявляют интерес ко всем сторонам жизни.

    Люди этого типа находят общий язык с представителями практически всех типов.

    Знаки зодиака имени Amr

    Для имени Amr подходят следующие знаки зодиака:

  • Знак зодиака Близнецы для имени Amr. Жизнь Близнецов с именем Amr непременно строится на крайностях. Они живут под управлением Меркурия, относятся к воздушной стихии, поэтому ветрены, переменчивы, но весьма дружелюбны. Заставить Близнеца по имени Amr замолчать невозможно. Трындеть до потери пульса – это их тайное оружие. Поэтому обладатели имени Amr очень хорошо сходится с Водолеями – запри их в одной комнате на ночь, к утру станут лучшими друзьями и будут планировать захват мира и государственный переворот. Несмотря на свою болтливость, люди обладающие именем Amr рассудительные и крайне логичные – в их мире все разложено по полочкам, а любое вмешательство извне резко пресекается. Они сами знают как нужно. Хотя от дружеских советов владельцы имени Amr не отказываются, как и любые Близнецы.
  • Знак зодиака Водолей для имени Amr. У болтунов Водолеев по имени Amr своя жизнь может идти наперекосяк – с работы уволили, личной жизни нет и не предвидится, да еще и куча комплексов в анамнезе, но тебе они будут давать советы, которые, как ни странно, работают. Обладатели имени Amr обожают часами трепаться обо всем (читай, ни о чем): о политике, теориях заговора и баттле Оксимирона с Гнойным. Причем с абсолютно незнакомыми людьми это тоже срабатывает. Водолей Amr — непостоянен, в понедельник может влюбиться (но не сильно), во вторник послать куда подальше, поплакать в среду, уже к пятнице найдет себе новый объект обожания, а про старый даже и не вспомнит. Вообще, Водолею с именем Amr влюбиться очень сложно: он подсознательно чувствует, чем все это закончится. Налет романтики мешает Водолею, обладателю имени Amr трезво смотреть на мир. Зато не мешает быть ярким, неординарным. Из профессий этот знак выбирает те, где можно проявить эрудицию, любит благотворительность, умеет сохранять спокойствие даже в стрессовой ситуации.
  • Цвет имени Amr

    Голубой цвет имени Amr. Люди с именем Amr, носящие голубой цвет, доверчивы и талантливы. Обладатели имени Amr не любят конфликтов, поэтому обходят их стороной – готовы даже попросить прощения у обидчика, только чтобы никто не таил в душе на них злость. С носителями имени Amr очень легко дружить и работать, но вот в семье у них часто бывают размолвки, так как они готовы бросить всё ради друзей, попавших якобы в беду. Но, как только друг спасён, то извинение перед домашними будет столь искренним, что невозможно их не простить. Положительные черты характера для имени Amr – творчество и креативность, бесконфликтность. Отрицательные черты характера имени Amr – некоторая безответственность и зависимость от мнения других.

    Видео значение имени Amr

    Вы согласны с описанием и значением имени Amr? Какую судьбу, характер и национальность имеют ваши знакомые с именем Amr? Каких известных и успешных людей с именем Amr вы еще знаете? Будем рады обсудить имя Amr более подробно с посетителями нашего сайта в комментариях ниже.

    Если вы нашли ошибку в описании имени, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

    Amr Diab — Tamally Maak

    Всегда с тобой

    Всегда с тобой,
    даже когда ты далеко от меня
    Твоя любовь наполняет моё сердце

    Я всегда с тобой
    Я всегда думаю о тебе
    Никогда не забываю тебя ни на секунду
    Я скучаю по тебе
    даже когда ты рядом со мной

    Всегда с тобой,
    даже когда ты далеко от меня
    Твоя любовь наполняет моё сердце

    Я всегда с тобой
    Я всегда думаю о тебе
    Никогда не забываю тебя ни на секунду
    Я скучаю по тебе
    даже когда ты рядом со мной

    Всегда, любовь моя, скучаю по тебе
    Мои глаза желают видеть тебя всегда
    И когда весь мир вокруг меня, и люди
    Я пою как прежде, любимая, нуждаюсь в тебе

    Всегда, любовь моя, скучаю по тебе
    Мои глаза желают видеть тебя всегда
    И когда весь мир вокруг меня, и люди
    Я пою как прежде, любимая, нуждаюсь в тебе

    Я всегда с тобой
    Моё сердце с тобой, моя душа с тобой
    Моя дорогая любовь
    Самая дорогая любовь моя

    И неважно как далеко мы,
    Ты всегда в моём сердце
    Ты моя жтзнь, моё будущее
    Ты лучшая судьба.

    Я всегда с тобой
    Моё сердце с тобой, моя душа с тобой
    Моя дорогая любовь
    Самая дорогая любовь моя

    И неважно как далеко ты от меня,
    Ты всегда в моём сердце
    Ты моя жтзнь, моё будущее
    Ты лучшая судьба.

    Всегда, моя любовь, я скучаю по тебе
    Всегда глаза зовут тебя
    И даже если весь мир будет вокруг меня,
    Я буду говорить, любовь, что нужна мне ты

    Всегда, моя любовь, я скучаю по тебе
    Всегда глаза зовут тебя
    И даже если весь мир будет вокруг меня,
    Я буду говорить, любовь, что нужна мне ты

    Всегда, моя любовь, я скучаю по тебе
    Всегда глаза зовут тебя
    И даже если весь мир будет вокруг меня,
    Я буду говорить, любовь, что нужна мне ты

    Всегда, моя любовь, я скучаю по тебе
    Всегда глаза зовут тебя
    И даже если весь мир будет вокруг меня,
    Я буду говорить, любовь, что нужна мне ты

    Тоскую по тебе

    Я тоскую из-за тебя!
    Даже когда ты далеко от меня
    В сердце моем страсть по тебе.

    Как я тоскую по тебе!
    Тоска в мыслях и сердце.
    И забыть тебя не могу.
    Тоска парализовала меня.
    Даже когда я рядом с тобой.

    Тоскуя по тебе любимая, я скучаю по тебе.
    Тоскую снова после встречи с тобой.
    Даже если вокруг меня все люди мира,
    Я все равно, любимая моя, нуждаюсь в тебе.

    Все мечты мои о тебе.
    С тобою сердце и душа моя
    Моя наилюбимейшая!
    Моя наилюбимейшая!

    Как бы далека ты ни была, для сердца моего ты близко.
    Клянусь, хоть скрыта от меня, хоть присутствуешь рядом.

    перевод песни: Исмаил Попов

    I’m always with You

    I am always with You.
    And even when you’re far from me,
    your love is in my heart.

    I’m always with you,
    you’re always in my mind and in my heart,
    and I never forget you.
    I’m always missing you,
    even when I’m with you.

    I am always with You.
    And even when you’re far from me,
    your love is in my heart.

    I’m always with you,
    you’re always in my mind and in my heart,
    and I never forget you.
    I’m always missing you,
    even when I’m with you.

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    I’m always with you
    My heart is with you, my soul is with you
    My dearest love
    My dearest love

    And no matter how far you are from me,
    You’re always close to my heart
    You’re my life and my future
    You’re the best destiny.

    I’m always with you
    My heart is with you, my soul is with you
    My dearest love
    My dearest love

    And no matter how far you are from me,
    You’re always close to my heart
    You’re my life and my future
    You’re the best destiny.

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    Always, My love, I’m missing you
    Always my eyes are calling you
    and even if the whole world is around me,
    I’ll still say, my love I need you

    Te voy a dejar

    te voy a dejar
    me duele en el alma
    pero no voy a llorar

    te voy a dejar
    ahora te lo juro
    sé que te voy a olvidar
    y aunque el corazón
    me diga que no
    que no te abandone

    te voy a dejar
    lo siento, lo nuestro
    yo sé que no va más

    te voy a dejar
    ni ahora ni nunca
    voy a mirar para atrás
    será mi destino volver a empezar
    un nuevo camino
    el tiempo y la distancia
    curan las heridas

    quiero que estés lejos, lejos de mi vida
    hoy voy a buscar mi libertad perdida
    no voy a quedarme aunque me lo pidas

    te voy a dejar
    jugaste conmigo
    y ahora te toca pagar

    te voy a dejar
    no llores, no finjas
    ya no me vas a engañar
    mi dios es testigo
    que yo puse todo
    mi amor en tus manos

    te voy a dejar
    no vales la pena
    tú no me supiste amar

    te voy a dejar
    ya fuiste, no existes
    y nunca más me verás
    jugaste conmigo
    tendrás tu castigo
    veras como duele
    el tiempo y la distancia
    curan las heridas

    quiero que estés lejos, lejos de mi vida
    hoy voy a buscar mi libertad perdida
    no voy a quedarme aunque me lo pidas.

    Amr Diab — Mahragan — перевод песни на русский

    Текст песни Amr Diab — Mahragan

    Перевод песни Amr Diab — Mahragan

    Скопировать текст в буфер

    Скопировать перевод в буфер




    مبقاش يناسبك ازعل واحاسبك

    Спор, который тебе подходит.

    ايه اللي غاصبك علي العيشة دي واللي بقينا فيه

    На что ты злишься?

    متشيلش همي موجود مرمي

    Во мне этого нет.

    ما تفوق يا عم انا همشي اقول في الشارع هيه

    — Что еще, дядя? — я иду по улице. — Эй.

    مبقاش يناسبك ازعل واحاسبك

    Спор, который тебе подходит.

    ايه اللي غاصبك علي العيشة دي واللي بقينا فيه

    На что ты злишься?

    متشيلش همي موجود مرمي

    Во мне этого нет.

    ما تفوق يا عم انا همشي اقول في الشارع هيه

    — Что еще, дядя? — я иду по улице. — Эй.

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انت اللي زيك بجد حله بدل ده كله

    Ты единственный, кто пытается все решить.

    السكه اهي وادي الباب مفتوح

    Железная дорога-долина, дверь открыта.

    روح بالسلامة لا عليك ملامة

    Будь в безопасности. ты не должна винить его.

    ولا ليك علامة والسهل زيي مبيطيقهوش

    У тебя нет знака, и это легко.

    انت اللي زيك بجد حله بدل ده كله

    Ты единственный, кто пытается все решить.

    السكه اهي وادي الباب مفتوح

    Железная дорога-долина, дверь открыта.

    روح بالسلامة لا عليك ملامة

    Будь в безопасности. ты не должна винить его.

    ولا ليك علامة والسهل زيي مبيطيقهوش

    У тебя нет знака, и это легко.

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.

    هتعيشها عليا ليه

    Почему ты живешь ради меня?

    انا هعمل مهرجان مهرجان

    Я устраиваю праздник.

    وخلاص هنسي اللي كان مهما كان

    И спасение Хеннесси, что угодно.

    وحكايتي معاك كان يا مكان

    И моя история была с тобой, приятель.




    Альбом
    Sahran

    дата релиза

    12-02-2020



    Внимание! Не стесняйтесь оставлять отзывы.

    Возможности АМР писем | Блог по email-маркетингу

    AMP сокращение от Accelerated Mobile Pages, что буквально переводится «ускоренные мобильные страницы», и что никак не проясняет ситуацию, что же это такое. Если опираться на общее объяснение, то это технология использования конкретного количества HTML-тэгов с четко определенными функциями.

    Изначально данная технология использовалась для оптимизации страниц. Страницы с АМР легко адаптируются под мобильные устройства и очень быстро загружаются, что делает их более привлекательными для поисковиков и ранжируются они выше остальных. 

    Но эта же технология имеет и другие варианты применения, один из которых — собственно, наш любимый email-маркетинг.

    Привычный нам вид емейл-рассылок — это статичные письма. Да, они могут быть разбавлены видео или гиф-анимациями, но все равно они остаются свое рода малофункциональными. Потому как подписчику предлагается достаточно ограниченный выбор доступных операций. Все, что мы можем сделать с электронным письмом — это прочитать и перейти по ссылки на главный ресурс, где и будут совершаться остальные действия — добавление в корзину, покупка товаров, оплата и т.д. 

    AMP-письма — это новый уровень емейл-маркетинга. С помощью них мы можем предложить подписчикам действительно динамичный контент и сделать по-настоящему интерактивные письма. Так как в обычных HTML-емейлах взаимодействие читателя с письмом происходит только посредством ссылок. 

    Кроме того, что варианты возможного содержания рассылок значительно расширяются, создавая письма с помощью АМР-технологии, мы также делаем возможным редактирования письма в реальном времени даже после отправки. 

    Така форма письма расширяет возможности простой рассылки до уровня миниатюрного сайта. То есть подписчики могут совершать необходимые манипуляции, не переходя на внешние ресурсы, прямиком с емейла. Так сказать, обратная вариация на тему горы и Магомета: не клиент идет на сайт, а сайт приходит к посетителю в личном письме.

    Как пример, рассылка от популярной на западном рынке соцсети Pinterest. Комания предлагает пользователям подборку изображений, которые соответствуют ранее отмеченным или сохраненным постам пользователя и его вкусам. Получатели рассылки могут, не переходя на платформу, поставить отметки «нравится», сохранить понравившейся пин в свою коллекцию или поделиться с другими. 

    Что может делать подписчик через АМР-письма: 

    • добавить товар в корзину; 
    • листать «карусель»-галерею и каталоги;
    • забронировать номер гостиницы;
    • купить билет;
    • просмотреть характеристики товара и тут же его оплатить; 
    • голосовать; 
    • заполнять формы и анкеты; 
    • следить за статусом заказа;
    • комментировать и отвечать на комментарии т.д. 

    Главное преимуществом таких емейлов — это сокращения пути клиента к совершению целевого действия. Соответственно это повышает конверсию рассылок.

    В АМР-письмах есть один неприятный момент, который стоит держать в уме: не все почтовики смогут отобразить подобный контент. Если сервис не поддерживает технологию АМР, то рассылка все равно дойдет до своего получателя, но весь контент отобразится как в обычном статическом письме. 

    Амра / StatusName

    Амра активная женщина, трудолюбивая, временами бывает яростной, если кто-то переступит позволенные грани. Со стороны может показаться, что женщина скрытная и немногословная, но такое поведение с ее стороны проявляется лишь к тем людям, с которыми она малознакома.

    В дружбе такая женщина очень внимательная, терпеливая, уверенная в себе. Она не зажатая и может открыть душу перед любым человеком, стать для него верным спутником и советчиком. Амра никогда не будет испытывать чувство зависти к своим близким людям, а по возможности постарается помочь каждому из них и стать для таких людей верным другом, преданным союзником. А вот расставание с людьми женщина переживает крайне болезненно, иногда создается впечатление, что она боится разрывать отношения с кем-либо, ведь опасается неприятных ощущений. Такой человек откровенный, уверенный в себе, часто испытывает чувство долга и старается помогать тем, кому крайне необходим.

    Амре подходят те профессии, которые позволяет ей проявить свою уверенность в себе, творческие способности, лидерские задатки, а также увеличить финансовую прибыль. Женщина считает, что ее таланты должны раскрываться в любых сферах и очень огорчается, если у нее что-то не получается или в каком-то деле познаются трудности. Широта ее интересов настолько большая, что порой и сама она не знает, какой вид деятельности выбрать. Но стоит помнить, Амра никогда не ошибется в собственных решениях, ведь всегда подходит к делу с ответственностью, ее целеустремленность настолько большая, что женщина может покорить своим рвением любого человека и заставить его восхищаться собой. У нее всегда доверительные и даже дружелюбные отношения с руководством, такой человек умеет быть таким, каким его хотят видеть и при этом не терять собственной индивидуальности.

    В любви эта женщина романтичная, податливая, мягкая и достаточно игривая, она любит казаться слабее, чем есть на самом деле. Часто планирует будущее с любимым человеком, старается жить по его правилам, полностью быть на стороне возлюбленного. Несмотря на это, Амра никогда не становится объектом власти для своего мужчины, она не позволит использовать себя и плохо относится к субъективной критике в свой адрес, может подолгу обижаться на того, кто пытается ранить ее чувства. Амра никогда не простит измены, хоть и долго переживает из-за этого, но никогда не сдастся и найдет в силы поверить в себя снова и двигаться дальше.

    Автомобильные номера АМР: кому положена спецсерия?

    Приветствую Вас, подписчики блога. В данном повествовании хочу рассказать вам, что значат номера АМР, и кто является их обладателями. Номерные знаки на автомобиле — это не просто табличка из металла, все обладатели «крутых» номеров имеют иммунитет в период совершения движения, по крайней мере так сложилось на просторах нашей родины. А теперь обо всем этом по порядку далее.

       История появления спец. номеров

    Появились они еще в далеких 1939–1941‑х годах. Номера, обозначенные литерой А и цифрами, предназначались для легковых и грузовых автомобилей Красной Армии для проезда на территории, которые были закрыты для населения, а правительственные машинки носили сочетание букв МА. В послевоенные годы это разделение было утверждено на законодательном уровне. Была совершена «номерная» реформа, и они были розданы для физических лиц и специального транспорта.

    На машинах чиновников высокого уровня появились гос номера серии МА, МЩ, ЭО которым предусмотрены «привилегии» в соблюдении правил дорожного движения. В 60‑е годы появились серии МОС и МОЛ, которых останавливать было нельзя. Стояли они и на автомобилях из гаражей «особого назначения», которые обслуживали партийную элиту. В 90‑е годы состоялась последующая регистрационная реформа, результатом которой стало появление очередной серии автомобилей с триколорами.

    Означает данный факт, что эти транспортные средства не имели право останавливать сотрудники ГАИ. Региональный код заменили российским флагом. Цель данной реформы была одна — способствовать беспрепятственному проезду автомобилей руководства страны. Но как у нас случается, особые буквы появились также и на автомобилях бизнесменов и видных провластных деятелей.

       Кто является обладателем специальных номерных табличек

    К описываемой серии на данный момент относятся номера АМР***97; это серия, которая пришла на смену номеров с триколором. Авто с данными номерами снабжены спецсигналами, однако не имеют отличительных знаков. Это подразумевает, что при включенном спецсигнале эти машины, могут отступать практически от всех требований ПДД, фактически кроме сигналов регулировщика.

    Кому принадлежат автомобили с регистрационными литерами серии АМР? 999 из них (а это общее количество) закреплены за конкретными высокопоставленными чиновниками, руководителями ведомств и министерств. Серия АМР считается самой престижной вне зависимости от того, какие номера на них обозначены. По данным интернета расшифровка элитных спецзнаков происходит следующим образом. Буквы АМР трактуют как АдМинистРация, Администрация Московского региона, автомобиль министра России.

       Распределение и привилегии «счастливчиков»

    Спецзнаки распределяются следующим образом: первая пол сотня номеров имеет отношение к министрам и высокопоставленным членам правительства и Государственной Думы. Следующими владельцами элитных табличек номеров являются советники Президента, начальники департаментов и члены Управления делами Президента. В конце сотни владельцев привилегированной серии находятся заместители министров, государственные советники и главы силовых структур.

    Далее они распределены между структурами ФСКН, СК, за ними следуют сотрудники МЧС и МВД, военные чиновники. Затем обладателями спецномеров могут являться члены министерств и главы Законодательных Собраний. Последние сотни отданы Фельдъегерям, ФСБ, ФСО и некоторым членам Совета Федерации.

    В Москве высоко ценятся подобные регистрационные знаки с аббревиатурой АМР и их счастливыми владельцами по факту могут выступать не только чиновники высокого уровня — их приобретают за большие деньги и олигархи. Дают ли номера АМР дополнительные привилегии? С точки зрения законодательства — нет должны, но по факту — таки дают. Многие у нас наслышаны, что особые серии связаны с государственными структурами. Авто со специальными литерами — неприкасаемы, поэтому любыми путями желают их заполучить, чтобы быть защищенными от контроля сотрудников дорожно-постовой службы.

    На этом смею надеяться, что мы слегка приоткрыли завесу тайны этих загадочных букв АМР. Конечно, большинству рядовых сограждан и даже бизнесменов они никогда не смогут быть доступны. Тем не менее, не только в этом счастье. Рекомендую не нарушать требований, которые предписываются правилами дорожного движения, чтобы не рассчитывать на чье-либо покровительство. Например сейчас предусмотрены не хилые штрафы за проезд на запрещающий сигнал светофора и даже всего лишь за выезд за стоп линию. Будем прощаться, дорогие мои читатели. Пока!

    С уважением, автор блога Андрей Кульпанов

    Место для контестной рекламы


    Автор:Admin

    Калмыцкие имена — Калмыкия-online.ру

    Калмыцкие имена

    Обновлено: 04.11.2016 11:17
    05.02.2010 17:51

    Среди калмыцких имен значительное место занимают имена исконные, числовые мужские имена, по названиям животных и птиц, ряд имен произошел от слов со значением радость, счастье и долголетие.

    Наряду с исконными именами у калмыцкого народа встречаются имена тибетско-санскритского происхождения, Появление их связано с распространением буддизма среди ойратов в XVI в.

    Список имен постоянно пополняется.

    Если вы знаете калмыцкое имя и его значение, оставляйте комментарий: имя — его значение.

    Для удобства пользуйтесь поиском: Ctrl + F

    Мужские калмыцкие имена:

    Адучи — табунщик

    Адык — последний

    Адьян — тиб. солнце

    Адуч — табунщик

    Азд, Азыд — буйный

    Айтсан — добрые мысли

    Айтин — звонкий

    Алдар — славный

    Амр, Амра, Амар, Амархн (Амархан) — спокойный

    Анджа, Анджур, Анджука — божество

    Арвун — десятый

    Арзгир — грубый

    Арлтан — остров, перламутровый (жемчужный) остров

    Армадык — неокрепший, молодой

    Арсланг — лев

    Аршан — целебная, святая вода

    Аюка — медвежонок

    Ачахан — племянник хан

    Аюр — исцеляющий

    Аюш — тиб. долговечный

    Аян — путешествие

    Баазр, Баазыр, Базыр, Базыр — тиб. алмаз

    Баир — радость

    Балдр — не калмыцкого происождения

    Баатр — богатырь

    Бембя — (Бемб, Бембе) — сатурн

    Бадма — лотос

    Баву — тиб. богатырь

    Бааджа (Баадж:а) — дядя, обращение к старшим.

    Барга — суслик

    Басанг — название планеты Венера

    Батнасн — от Бат — крепкий и Насн — возраст

    Бамба — защитник, щит

    Бату — крепкий

    Бацак — высокомерный

    Бова — отец, глава клана (женск. вариант — Бова — «домашнее» имя, уменьшительное. По-калмыцки «боова-боова» — это аналогично русскому «баю-баюшки-баю»)

    Бода — крупный

    Болд, Болду — стальной

    Болдн — от Болд?

    Босхан — возмещение

    Босхамджи — возрождение, возрожденный

    Бугуш — олененок

    Буджал — мудрый, победоносный

    Будгта — капризный

    Бута — обуза

    Буджгир — курчавый

    Була — пуховый

    Буйнчи — добродетель

    Буйнта — добродетельный

    Буурул, Бурул — седой, ковыль

    Буляш — доброжелательный

    Бююрчи — установщик кибитки, хотонный староста, рожденный на новом месте

    Бюювя — от слова колыбель

    Гога — грудной ребенок

    Гюзян — живот

    Гунга — тиб. радость

    Гюце — запретный

    Галва — стихийный

    Галдан — санскр. радостный, ликующий

    Галзан — лысый

    Галсан — тиб. счастливая судьба

    Галун — гусь

    Гаха — свинья

    Гардя — орел

    Гатя — несчастный

    Гашун — горький

    Гаца — упрямый

    Гонзык (Гонзг) — выскоий

    Годжур — ручеек

    Гуча — от слова hучн — тридцать

    Гаря — тиб. день недели; планета

    Дагин, Даган, Дааһн — двухгодовалый жеребенок

    Джангар — священное для калмыков имя.

    Данзан — независимый

    Дамба — тиб. возвышенный, превосходный, святой

    Даланта – семьдесят, так называли человека, родившегося когда отцу было семьдесят лет

    Дарсен — большой; самый старший

    Делик — благополучный

    Дельвр — победа

    Джурык — резвый

    Довдан — сильный, пылкий

    Дербет — от слова Дёрвюд, одно из калмыцких племен.

    Джал — тиб. победоносный

    Джангар — (герой калм. эпоса) — тюрк.- завоеватель вселенной; калм.- одинокий.

    Джиргал — счастье

    Дольган — волна

    Дондг (Дондук) — тиб. мужество

    Дольгир — косоглазый

    Доштан — от Дош (скользить) + тан

    Дорджи — алмаз

    Дунгар — 1) большая раковина. 2) музыкальный инструмент из раковины

    Дунду — средний

    Джога — тиб. состояние нирваны, созерцание

    Джува — десять миллионов

    Джульджуха — птенец

    Замба — материк, вселенная

    Замьян, Джамьян — мягкая мелодия, сладкозвучный

    Зандан — сандал

    Зюнгар — от названия племенной группы ойратов (зюнгары, джунгары), в переводе — левая рука

    Заян — судьба

    Зурган — так называли шестого ребенка в семье

    Ивя — зоботливый

    Иджил — волжанин, рожденный на Волге

    Илюмджи — Меркурий

    Исен — девять, тюрк. «здоровый»

    Иотун — куропатка

    Илю, Илу — открытый, ясный

    Илюшк — спокойный

    Иртя — острый

    Кандука — благоухающий

    Канур — тиб. деяние

    Кегярик — красивый, нарядный

    Кирцян (Кирсан?) — соразмерный

    Кичик — маленький

    Кова (Кава) — низкорослый

    Кюдир, Кюдр, Кютир — прочный; сильный, здоровый

    Лиджи — Гаря — среда (день недели)

    Лаша — неуклюжий

    Лаган — от слова Лаг — илистая почва

    Манҗ, Манджи, Манжи — послушник, ученик в хуруле.

    Мацак — пост (религ.)

    Маштык — низкорослый

    Мегяш — тощий

    Медя — знание

    Менде — здоровый

    Мерген — меткий стрелок

    Мергенчи — умный

    Минджи — бобер

    Монгол — монгол

    Мончак, Мончг — бисер

    Мохла, Мухла — раб, холоп

    Менке — вечный

    Менкубуши — вечный мирянин

    Мерчи — табунщик

    Муджик — мужик

    Муни — тиб. аскет, мудрец

    Надвид, Надмид, Надбит — здоровый

    Найдан — окрпеший

    Намту, Номто- спокойный, ученый

    Наран — солнце, солнечный

    Намтыр — биография

    Намчи — тиб. очень большой

    Намба — тиб. важный, степенный

    Нарма — созвездие

    Нарта — солнечный

    Насун — возраст, возрастной

    Наста — пожилой

    Натыр — красивый

    Начин — сокол

    Намин — восемь, восьмой

    Намжил, Намджил (тиб.) — всепобеждающий.

    Намр, Намар, Намру — осень, осенний

    Намср, Намсыр — всеслышащий

    Нимгир — (Нигмр, Нигмир) — вторник, планета Марс

    Номго — безграмотный

    Нойон — князь

    Оджилдык — уважающий старших

    Орлюк — полководец

    Отхон — младший

    Очир — калм. — скипетр, жезл. монг. — алмаз, бурят. — молния;

    Пюрвя — Юпитер

    Савр — коготь

    Санал — благопжелание

    Санж, Санджи, Санжи — тиб. просветленный

    Санджарык (Санждрг) — способный

    Сарнг, Саранг, Сарынг — понедельник, луна

    Соят — клыкастый

    Сумьян — от слова сумн — Пуля, быстрый

    Тагир — Таһр — Тагар (тиб.) — Белый тигр

    Темен — игла

    Темр — железный

    Тогтун, Тогта, Токта — спокойный

    Тюрбя – производное от Пүрвә — (тиб) название планеты Юпитер, что соответствует четвергу.

    Тюмн, Тюмен

    Убуш —

    Улан — красный

    Улюмджи — Меркурий

    Уташ

    Хату — твердый

    Хонгр — Милый, приятный, обаятельный, ласковый

    Хо Орлюк — благородный полководец

    Хонха — колокольчик

    Хулхачи — вор

    Хевтя — счастливый

    Цандг

    Цевг

    Церен — долголетие

    Цецен — мудрый

    Цорга

    Чагдар — тиб. хранитель алмаза

    Чогьял — тиб. победоносное учение

    Чолбан — тюрк. скрипучий

    Чомпот — волчок

    Чульчн

    Чудут

    Чумашк

    Шара — желтый

    Шивид — чистый

    Шитджи — канарейка

    Шитлян — лесной орех?

    Шовгур, Шовгр — остроконечный

    Шовшур — вепрь

    Шора — пыль, пыльный

    Шукр, Шюкир, Шукир — зонт?

    Шулун — быстрый, проворный

    Шунга — старательный

    Шуургчи, Шургчи — рожденный в метель

    Шуптыр, Шувтыр — едкий, острый

    Эве, Эбе — согласие, мир

    Эвдык — спокойный, мирный

    Эльвег, Эльвг — обильный

    Энче — сирота

    Энкир — милый

    Эрдем — мастерство

    Эрдни, Эрдени — драгоценность

    Эренджен, Эренцен — сокровище

    Эркн

    Явака

    Яман

    Ямаха

    Янча

    Яшкул — тюркс. новое озеро

    Яшан

     

    Женские калмыцкие имена

    Айса — мелодия

    Айта — приветливый, приличный, хороший

    Айтсана —

    Айлана — тув. соловей 

    Альма — яблоня

    Алтана — золотая

    Амра — спокойная

    Амуланга — спокойная

    Арья — скр. святая

    Аюна — медведица

    Баира — радость

    Баина — богатая

    Балта — с медовой начинкой

    Бальджир, Бальджира — румяная, скр. благосостояние.

    Барма — тиб. сияние 

    Болха — достаточно

    Боова —

    Буйнта — добродетель

    Булгун — соболь

    Булта — пуховый

    Галдма —

    Герензел —

    Герел — свет

    Гиляна, Гилян, Геля — белая, чистая, светлый путь

    Далма, Долма — Дулма (тиб.) — освободительница, Тара

    Делгира, Делгр – простор, пространный, обширный, полный, изобильный

    Замира — тюрк. радость

    Заяна — судьба

    Зула — родничок, темя

    Иляна — ясная, открытая

    Иджиля, Иджилина — волжанка

    Инджи (по калм. инҗ) — приданое

    Инджира, Инжира (по калм. инжр) — название сладкого плода

    Кермен, Кермяш — белка

    Кичкильда — ценная

    Киштя, Кишта — счастливая, благополучная, благоденствующая

    Кеке — синяя, голубая

    Лееля —

    Лола —

    Найха — надежда

    Намджил — победа, побеждающая

    Ногала — зайчонок, весенний зайчонок

    Нюдля — красивые глаза

    Окн — девушка

    Сувсана — жемчуг

    Санда —

    Сарула — светлая, ясная

    Саглр, Саглара — цветение или цветущая растущий или пушистый

    Селгир —

    Тевкя, Тевкяш — коса

    Туташ —

    Тёгряш —

    Торга — степной жаворонок

    Улюмджана — среда

    Улана — красная

    Ууля, Уля — от слов. рукоделие

    Церена — от слова. Церен долголетие, спасение

    Цагана, Цаган — белая

    Эльза(та) — счастливая, богатая

    Энкира — милая, ласковая

    Янжина — благозвучная, певунья

    Инджи (по калм. инҗ) — приданое



    Добавить комментарий

    Читайте также

    Улучшение нейронного машинного перевода с помощью семантических графов AMR

    Модель Seq2Seq и ее варианты (ConvSeq2Seq и Transformer) представляют собой многообещающее новое решение проблемы машинного перевода. Однако эти модели сосредоточены только на использовании знаний из двуязычных предложений, не уделяя особого внимания использованию внешних источников языковых знаний, таких как семантические представления. Не только семантические представления могут помочь сохранить значение, но также минимизируют проблему разреженности данных.Однако на сегодняшний день семантическая информация редко интегрируется в модели машинного перевода. В этом исследовании мы исследуем влияние семантических графов абстрактного представления смысла (AMR) в различных моделях машинного перевода. Экспериментальные результаты на англо-вьетнамском наборе данных IWSLT15 доказали эффективность предложенной модели, расширяя использование внешних источников языковых знаний для значительного повышения производительности моделей машинного перевода, особенно при применении языковых пар с низким уровнем ресурсов.

    1. Введение

    Нейромашинный перевод (NMT) [1–4] доказал свою эффективность и, таким образом, в последние годы привлек внимание исследователей. В практических приложениях типичными входными данными для систем NMT являются предложения, в которых слова представлены как отдельные векторы в пространстве встраивания слов. Это пространство для встраивания слов не показывает никакой связи между словами в предложении, например зависимости или семантических ролевых отношений. Недавние исследования [5–8] показали, что семантическая информация важна для создания кратких и подходящих переводов при машинном переводе.Хотя эти модели достигли значительного прогресса, их конструкция и функции ограничиваются только системами статистического машинного перевода. Следовательно, задачам обзора, анализа и применения дополнительной семантической информации к системам NMT не уделялось всестороннего внимания.

    В этом исследовании мы представляем метод интеграции графов представления абстрактных значений (AMR) (https://amr.isi.edu) в качестве дополнительной семантической информации в популярные на данный момент системы NMT, такие как Seq2Seq, ConvSeq2Seq и Transformer.Графы AMR — это корневые, помеченные, направленные и ациклические графы, представляющие все содержание предложения. Они также абстрагируются от связанных синтаксических представлений в том смысле, что предложения с похожими значениями будут иметь один и тот же график AMR, даже если слова, используемые в этих предложениях, разные. На рисунке 1 показан граф AMR, в котором узлы (например, -01,) символизируют концепции, а ребра (например, и) представляют отношения между концепциями, которые они соединяют. По сравнению с семантическими ролевыми графами, графы AMR содержат больше взаимосвязей (например,г., между и). Кроме того, графы AMR напрямую содержат отношения сущностей, исключая чередующиеся переменные (т. Е. Используя лемму) и функциональные слова. Следовательно, графики AMR можно комбинировать с вводимым текстом для создания лучшего контекстного представления. Более того, структурированная информация из графиков AMR может помочь минимизировать проблему разреженности данных в условиях нехватки ресурсов. Во-первых, представления графа AMR комбинируются со словом встраивание, чтобы создать лучшее контекстное представление предложения.Затем внимание множества голов может сосредоточиться на всех позициях контекстных функций с выходными данными графических представлений AMR.


    Интеграция графиков AMR в NMT дает несколько преимуществ. Во-первых, это решает проблемы разреженности данных и семантической неоднозначности. Во-вторых, структурированная семантическая информация, построенная из графов AMR, может помочь дополнить входной текст, предоставляя абстрактную информацию высокого уровня, тем самым улучшая кодирование встраивания входного слова. Наконец, внимание нескольких заголовков может также использовать семантическую информацию для улучшения зависимости между словами в предложении.

    Недавние исследования применили семантическое представление к моделям NMT. Например, Marcheggiani et al. [9] использовали информацию о семантической маркировке ролей (SRL) для NMT, указав, что структура предиката-аргумента из SRL может помочь повысить качество основанной на внимании модели «последовательность-последовательность». Между тем, Song et al. [10] доказали, что семантическая информация, структурированная из графов AMR, может дополнять вводимый текст путем включения абстрактной информации высокого уровня. В этом подходе рекуррентная сеть графов (GRN) использовалась для кодирования графов AMR без нарушения исходной структуры графа, а для кодирования исходного ввода использовалась последовательная долгосрочная краткосрочная память (LSTM).Декодер представлял собой LSTM с двойным вниманием, принимая результаты кодирования графического кодировщика и последовательного кодировщика в качестве памяти внимания. Song et al. также утверждал, что результаты интеграции AMR значительно лучше, чем результаты единственной интеграции SRL, потому что графы AMR включают как SRL, так и отношения между узлами (то есть слова). Однако подход Сонга столкнулся с некоторыми недостатками, такими как неспособность решить проблему корреляции между узлами в графах AMR и исследовалась только в системе машинного перевода с использованием рекуррентной нейронной сети (RNN).

    Вклад нашей работы заключается в следующем: (i) Во-первых, вместо добавления узла для представления ребра в графе и присвоения свойств ребра, как у документов, мы расширяем алгоритм внедрения узла [11] на использовать прямую информацию о ребрах (ii) Во-вторых, вместо использования рекуррентной сети графа в [10], мы предлагаем архитектуру, которая связывает индуктивный кодировщик графа (iii) Наконец, мы исследовали и проанализировали результаты на англо-вьетнамском двуязычном наборе, которая считается языковой парой с ограниченными ресурсами.С помощью экспериментов мы демонстрируем эффективность интеграции AMR в машинный перевод нейронных сетей и делаем важные выводы для будущих исследований.

    Остальная часть статьи организована следующим образом. В разделе 2 представлены современные популярные архитектуры машинного перевода, такие как Seq2Seq, ConvSeq2Seq и Transformer. Далее, в разделе 3 представлен метод представления графиков AMR в векторной форме, а также предлагается метод интеграции графиков AMR в различные модели NMT.Затем в разделах 4 и 5 обсуждаются корпус, использованный в эксперименте, и экспериментальная конфигурация модели, соответственно. После этого в разделе 6 представлены экспериментальные результаты модели машинного перевода с интегрированным AMR и анализируется влияние AMR на модель вместе с некоторыми ошибками перевода, порожденными моделью. Раздел 7 резюмирует нашу работу.

    2. Нейронный машинный перевод

    В этом разделе мы даем краткое введение в модель Seq2Seq и ее варианты, такие как ConvSeq2Seq и Transformer.

    2.1. Seq2Seq

    Мы берем основанную на внимании модель «последовательность-последовательность» [1] в качестве базовой модели, но мы используем LSTM [12] как в кодере, так и в декодере.

    2.1.1. Кодировщик

    Учитывая предложение,.

    (i) Uni-LSTM . Как обычно, RNN считывает входную последовательность в порядке, начиная с первого токена, и вычисляет последовательность скрытого состояния для генерации входного представления слева направо.

    (ii) Bi-LSTM . Состоит из прямого и обратного LSTM.Прямой LSTM работает аналогично Uni-LSTM, а обратный LSTM считывает последовательность в обратном порядке от последнего токена до, в результате чего возникает последовательность скрытых назад состояний. Мы получаем слово «вложение», объединяя прямое и обратное скрытое состояние,.

    2.1.2. Декодер

    Декодер предсказывает следующее слово, учитывая вектор контекста и все ранее предсказанные слова. Мы использовали LSTM-декодер на основе внимания [1] с памятью внимания как объединение векторов внимания среди всех исходных токенов.

    Для каждого шага декодирования декодер передает конкатенацию встраивания текущего ввода и предыдущего вектора контекста в LSTM для обновления скрытого состояния:

    Затем новый вектор контекста вычисляется, где a — это модель выравнивания, которая сеть прямой связи, оценивает, насколько хорошо входы окружают позицию, и вход в позиции совпадают.

    Вычисляется выходная вероятность сверх целевого словаря: где и — параметры модели.

    2.2. ConvSeq2Seq
    2.2.1. ConvSeq2Seq

    Эта архитектура предложена Герингом и др. [2], чтобы полностью заменить RNN на CNN со следующими компонентами:

    Модель ConvS2S следовала архитектуре кодер-декодер. Блоки кодера и декодера имеют идентичную структуру, которая вычисляет скрытые состояния на основе фиксированного числа входных элементов. Чтобы увеличить размер контекста, мы накладываем несколько блоков друг на друга. Каждый блок содержит одномерную свертку и нелинейность.В каждом ядре свертки параметры. Входные данные представлены как, что представляет собой конкатенацию входных элементов с размерностью и отображает их, чтобы получить единственный выходной размер, размерность которого вдвое больше, чем у входных. Затем выходные элементы будут поданы в последующие слои. Мы используем стробируемый линейный блок (GLU) в качестве нелинейности, которая применяется к выходу свертки: где входы нелинейности, обозначает поэлементное умножение, выход имеет половину размера по сравнению с и является вентилем, который контролировать, какие входные данные текущего контекста актуальны.

    Чтобы включить глубокие сверточные блоки, мы принимаем остаточные связи, которые соединяют вход каждого сверточного слоя с выходом: где — скрытое состояние слоя.

    2.2.2. LightConvSeq2Seq

    Как вариант CNN, называемый облегченной сверткой [13], который позволяет выполнять вычисления с линейной сложностью, с длиной входной строки.

    Структура LightConvSeq2Seq состоит из элементов, аналогичных Conv2Seq, но использующих упрощенную операцию свертки, а не операцию свертки.

    Глубинная свертка (DConv) . Независимо выполнять операцию свертки по каждому каналу; тем самым количество параметров значительно сокращается от до, где — ширина ядра. Как правило, по позиции и направлению выход рассчитывается следующим образом:

    2.3. Трансформатор

    Трансформатор [4] также включает в себя кодировщик и декодер. Кодировщик генерирует векторное представление входного предложения. Предполагая ввод формы и представление формы, декодер производит последовательно для перевода на основе и предыдущих выводов.

    2.3.1. Кодировщик

    Имеется N подобных блоков, уложенных друг на друга. Каждый из этих блоков состоит из двух подблоков: механизма самовнимания и сети прямого распространения. Остаточное соединение окружает каждый субблок, за которым следует нормализация уровня. Общая формула представления энкодера следующая:

    2.3.2. Декодер

    Есть еще блоки N . Однако каждый блок состоит из 3 подблоков: блока самовнимания, блока прямой связи и блока внимания кодировщика-декодера, вставленного между ними.Остаточное соединение и нормализация уровня используются аналогично кодировщику. Кодер генерирует выходные данные шаг за шагом. Блок самовнимания обращает внимание только на позиции, созданные на предыдущих шагах, с помощью маски. Маска не позволяет декодеру обращать внимание на местоположения, которые не были сгенерированы, поэтому выходные данные могут быть предсказаны только на основе результата кодера и предыдущих выходов.

    2.3.3. Собственное внимание

    Есть 3 следующих компонента: запрос ( Q ), ключ ( K ) и значение ( V ), определяемые следующим образом: где — параметры с количеством измерений соответственно.

    3. Предлагаемый метод

    В этом разделе мы представляем алгоритм встраивания графа и предлагаем наш метод для интеграции представления внедрения графа AMR в различные известные системы NMT, такие как Seq2Seq, ConvSeq2Seq и Transformer.

    3.1. Представление информации на уровне графа

    На рисунке 2 изображена архитектура кодировщика графа, основанная на модели Xu et al. [11], с некоторыми улучшениями для интеграции дополнительной информации о ребре графа.


    Направленный граф с меткой на краю представляет взаимосвязь между узлами и с которыми он соединяется. Процесс обучения представлению узла выглядит следующим образом: (1) Сначала мы преобразуем текстовый атрибут узла в вектор признаков, просматривая матрицу внедрения. (2) Затем мы классифицируем соседей узла на два подмножества: прямые соседи, и отсталые соседи,. В частности, возвращает узлы, которые направляют туда и наоборот. Информация о ребре, связанном между узлом и соседним узлом, объединяется следующим образом: (3) Мы объединяем прямую информацию о прямых соседях в один вектор, где — индекс итерации.Мы делаем это, используя одно из трех упомянутых. (4) Затем мы объединяем текущее прямое представление с новым вектором соседства, . Результат передается на уровень прямой связи, за которым следует функция активации нелинейности, которая обновляет прямое представление для использования в следующей итерации. (5) Обновите обратное представление, используя аналогичную процедуру на этапах (3) ) и (4), но на этот раз мы используем обратные представления, а не прямые, и используем для агрегирования информации о соседях.(6) Повторите шаги (3) (5) раз, и конкатенация окончательного прямого и обратного представления используется в качестве окончательного двунаправленного представления.

    Как упоминалось в шагах (3) и (5), операция ассоциации представления узла выполняется с помощью одной из следующих функций агрегирования: (i) агрегатор среднего: выполняет вычисление среднего для каждого элемента và (ii) агрегатор GCN : он очень похож на агрегатор средних, за исключением того, что результат передается в полностью связанный уровень и нелинейную функцию активации [14].с MEAN в качестве функции, возвращающей среднее значение, и в качестве функции нелинейной активации. (iii) Агрегатор объединения: каждый вектор внедрения узла проходит через уровень прямой связи, за которым следует операция объединения (которая может быть максимальной, минимальной и средней) : С max в качестве максимальной операции и в качестве нелинейной функции активации.

    3.1.1. Встраивание графика

    Вложение графика Z содержит всю информацию о графе и рассчитывается одним из следующих двух методов: (i) На основе объединения: вложения узлов проходят через сеть с линейным преобразованием и выполняют объединение.(ii) Добавление суперузла: на узел указывают все узлы в графе. Используя алгоритм из раздела 3.1, представление is. Представление содержит всю информацию об узлах, которые следует рассматривать как представления графа или вложения графа.

    3.2. Механизм двойного внимания

    Архитектура интегрированной модели машинного перевода AMR проиллюстрирована на рисунке 3 с вводимым английским предложением и соответствующим графиком AMR. Предлагаемая архитектура состоит из кодировщика для входного предложения и декодера с входным значением, полученным от кодировщика.Основное отличие от традиционной модели декодер-кодировщик состоит в том, что существует дополнительный кодировщик графов для обработки информации на графах и представления этой информации в векторном формате. Затем этот вектор объединяется со скрытыми состояниями кодировщика и подается в декодер, чтобы найти соответствующее представление на вьетнамском языке.


    Мы предлагаем специальный метод интеграции для модели Seq2Seq с последовательной обработкой в ​​Разделе 3.2.1 и сосредоточимся на моделях с параллельной обработкой, таких как ConvSeq2Seq, LightConvSeq2Seq и Transformer в Разделе 3.2.2.

    3.2.1. Модель Seq2Seq с механизмом последовательной обработки

    Модель (рис. 4 (а)) состоит из двух механизмов внимания, работающих независимо: исходное внимание (слева) изучает соответствие между результатом и скрытыми состояниями кодировщика, а граф «внимание» изучает для выравнивания между выходными данными и узлами в графе AMR, получая вектор контекста. В частности, вычисление выглядит следующим образом: где a — это сеть с прямой связью, оценивающая соответствие между узлами, окружающими позицию и вход.

    Эти два вектора контекста затем объединяются с состоянием декодера и вектором внедрения для вычисления определяющего распределения вероятностей.

    3.2.2. Модели с механизмом параллельной обработки

    Напротив, при параллельной обработке модель не имеет информации о состоянии декодера. Другими словами, кроме того, что никакая информация о графике не включается в расчет внимания. Кроме того, использование только состояний вместе с параллельным вычислением оставляет модель без информации о связи между выходными данными и графиком AMR на этапе.Следовательно, модель не может эффективно изучить связь между входным предложением, выходным предложением и графиком AMR с небольшим увеличением примерно на 0,2 (эксперименты с LightConvSeq2Seq и Transformer). Следовательно, использование встраивания графа Z должно помочь модели получить больше информации о графе перед вычислением внимания. Это было доказано экспериментальными результатами, которые показывают увеличение показателя СИНИЙ на 0,6.

    Рисунки 4 (b) –4 (d) описывают предложенную модель, которая объединяет AMR с механизмом двойного внимания.Что касается моделей LightConvSeq2Seq-AMR и Transformer-AMR, механизм самовнимания для графа аналогичен описанию механизма самовнимания в разделе 2.3 с входными данными, представляющими узлы вместо состояния. Что касается модели ConvSeq2Seq-AMR, экспериментальные результаты показывают, что использование механизма внимания Луонга для изучения согласованности между графиком и выходными данными дает лучшие результаты, чем многоступенчатое внимание.

    4. Корпус

    Корпус, используемый для оценки модели, — IWSLT15 [15], который включает приблизительно англо-вьетнамские двуязычные предложения, взятые из презентаций TED Talks для обучающего набора.Для тонкой настройки мы используем набор tst2012, который включает 1553 языка параллельных пар. Кроме того, наборы тестов состоят из tst2013 и tst2015, которые включают 1268 и 1080 англо-вьетнамских двуязычных пар соответственно. Статистическая информация приведена в Таблице 1.


    Корпус Предложения Токены (английский) Токены (вьетнамский)
    2.44 M 2,87 M
    Точная настройка (tst2012) 1553 28 K 34 K
    Тест 1 (tst2013) 1268 26,7 K 336 K 9015 909 Тест 2 (tst2015) 1080 21 K 26,2 K

    Для фазы предварительной обработки кодирование пар байтов (BPE) (https://github.com/rsen / subword-nmt) [16] с 8000 операциями используется для работы с редкими словами и составными словами как для английского, так и для вьетнамского языков, тем самым значительно сокращая размер словарного запаса в английском с 54111 до 5208 и во вьетнамском с 25335 до 3336.

    Для анализа AMR мы используем инструментарий NeuralAmr (https://github.com/sinantie/NeuralAmr) [17], который реализует модели последовательность-последовательность для задач синтаксического анализа AMR и генерации AMR. Их модель достигает конкурентных результатов 62,1 SMATCH [18], текущий лучший результат (на момент выполнения этой работы, январь 2020 г.), зарегистрированный без значительного использования внешних семантических ресурсов. Этот инструмент создает графики AMR, представленные в нотации PENMAN (https://www.isi.edu/natural-language/penman/penman.html) и в линейной форме, как показано в примере предварительной обработки AMR.

    5. Экспериментальная конфигурация

    Модели реализованы на Python 3 и используют библиотеку Fairseq (https://fairseq.readthedocs.io/en/latest/#) [19].

    Конфигурация базовых моделей выглядит следующим образом: (i) Seq2Seq: мы исследуем модель MT с двумя типами LSTM: однонаправленный (однонаправленный) и двунаправленный (двунаправленный). Существуют размеры встраивания 512 слов, которые используют 512 скрытых единиц LSTM как в кодировщике, так и в декодере.(ii) ConvSeq2Seq: он состоит из 4 сверточных блоков и 512 скрытых единиц как для кодера, так и для декодера. Размер ядра — 3. (iii) LightConvSeq2Seq: он состоит из 4 сверточных блоков с размером ядра 3, 7, 15 и 31 для каждого блока и применяется как к кодеру, так и к декодеру. Собственное внимание принимается с головами. (Iv) Преобразователь: он имеет блоки как для кодировщика, так и для декодера. Слово embedding dim установлено на 512 и 2048 для сети прямого распространения. Самовнимание использовалось с числом голов 8.

    Предлагаемые модели имеют такую ​​же конфигурацию, что и базовая модель. Кроме того, кодировщик графов использовал 128-мерное встраивание для представления как края, так и узла. Мы сложили 2 уровня кодировщика графа и агрегирования информации от соседних узлов со средним агрегатором для LSTM и максимальным пулом с остальными моделями.

    Во время обучения используется оптимизатор Adam [20] с фиксированной скоростью обучения 0,001 для LSTM и ConvSeq2Seq, 0,0002 для LightConvSeq2Seq и 0.0005 для трансформатора.

    Помимо основных моделей, представленных выше, результаты предложенной модели также сравниваются с методом Song et al. [10]. Чтобы провести честное сравнение, мы переобучили модель Сонга с тем же предварительно обработанным набором данных и настроенными гиперпараметрами.

    После обучения моделей для оценки качества перевода использовалась оценка BLEU [21]. Мы также применяем бутстраповский метод повторной выборки [22] для измерения статистической значимости различий в баллах BLEU между результатами перевода предлагаемых моделей по сравнению с исходным уровнем.

    6. Результаты и обсуждение

    В этом разделе мы представляем наши экспериментальные результаты и наш анализ результатов.

    6.1. Результаты

    После обучения моделей используется поиск луча размером 5 для поиска перевода, который максимизирует условные вероятности.

    С тестовыми наборами tst2013 и tst2015 доказано, что предложенные модели превосходят соответствующую базовую модель. В частности, как показано в таблице 2, для uni-LSTM-AMR-F и bi-LSTM-AMR баллы BLEU равны 27.21 и 29,29 соответственно, что на 1,09 и 3,17 выше, чем у метода Сонга [10]. Точно так же с набором tst2015 bi-LSTM-AMR улучшил BLEU на 2,83 по сравнению с методом Сонга. Это показывает, что, несмотря на использование механизма двойного внимания, bi-LSTM-AMR и uni-LSTM-AMR могут более эффективно интегрировать информацию из AMR, тем самым обеспечивая лучшие результаты перевода.

    90’s Метод песни.12 AMR 2650 9015 2650 -AMR-B

    Модель BLEU
    tst2013 tst2015

    23,58
    Uni-LSTM-AMR 26,97 24,80
    Uni-LSTM-AMR-F 27,21 24,89 В 26,61 24,66
    Bi-LSTM-AMR 29,29 26,41
    Bi-LSTM-AMR-F
    Bi-LSTM-AMR-F
    Bi-LSTM-AMR-F
    28.36 26,04

    Жирным шрифтом выделены самые высокие результаты для каждой группы моделей.

    Между тем, когда LightConvSeq2Seq запускается на tst2013 и tst 2015, баллы BLEU составляют только 27,47 и 25,09 соответственно. Однако при интеграции AMR в систему показатель BLEU значительно увеличился на 1,0 и 0,58 на tst2013 и tst2015 соответственно. Кроме того, LightConvSeq2Seq-AMR-F и LightConvSeq2Seq-AMR-B, которые интегрировали графическую информацию с одного направления, также превосходят LightConvSeq2Seq, как показано в таблице 3.


    Модель BLEU
    tst2013 tst2015

    LightConvSeq2Seq 27,47 25,09
    LightConvSeq2Seq-АМС-F 27,71 25,05
    LightConvSeq2Seq-AMR-B 27,84 25,27
    LightConvSeq2Seq-AMR 28.46 25,67

    Полужирным шрифтом выделены самые высокие результаты при оценке каждой модели для наборов тестов «tst2013» и «tst2015».

    Как показано в таблице 4, ConvSeq2Seq также показывает улучшение качества машинного перевода с увеличением показателя BLEU примерно до 0,3 для ConvSeq2Seq-AMR с tst2013. Однако с tst2015 наблюдается СИНЕЕ снижение на 0,08.Однако модель ConvSeq2Seq-AMR-F достигает лучших результатов при интеграции информации от прямых соседей. Увеличение BLEU на 0,1 наблюдается с tst2013 и на 0,5 с tst2015. Как и в случае с Transformer, интеграция информации от прямых и обратных соседей в Transformer-AMR неэффективна, с увеличением только на 0,09 по сравнению с базовой моделью с tst2013. Только объединение информации от передних соседей в Transformer-AMR-F позволяет получить заметную оценку BLEU — 28,88 и 26.28 с tst2013 и tst2015 соответственно, что свидетельствует об увеличении на 0,28 и 0,52 по сравнению с Transformer.

    0 v 9326 j V .Таким образом, состояние графа может быть представлено как: Чтобы зафиксировать нелокальное взаимодействие между узлами, обмен информацией между узлами выполняется посредством последовательности переходов состояний, что приводит к последовательности состояний g 0 , g 1 ,…, g T , где gt = {atj} | vj∈V⁠, а T — количество переходов между состояниями, которое является гиперпараметром. Начальное состояние g 0 состоит из набора начальных состояний узла a0j = a0⁠, где a 0 — вектор всех нулей.

    Рекуррентная нейронная сеть используется для моделирования процесса перехода между состояниями. В частности, переход от g t −1 к g t состоит из скрытого перехода состояния для каждого узла (например, от at − 1j к atj⁠) , как показано на рисунке 3. На каждом этапе перехода между состояниями t наша модель осуществляет прямую связь между узлом и всеми узлами, которые напрямую подключены к узлу.Чтобы избежать уменьшения или всплеска градиента, используется LSTM (Hochreiter and Schmidhuber, 1997), в котором ячейка ctj используется для записи памяти для atj⁠. Мы используем входной элемент itj⁠, выходной элемент otj⁠ и элемент забывания ftj для управления потоком информации от входов к выходу atj⁠.

    Входные данные включают представления ребер, которые подключены к v j , где v j может быть либо источником, либо целью ребра.j = ∑ (j, k, l) ∈Eout (j) xj, kl

    , где E в ( j ) и E из ( j ) — это наборы входящих и исходящих ребер v j соответственно. В дополнение к краевым входам наша модель также принимает скрытые состояния входящих и исходящих соседей каждого узла во время перехода состояния.x⁠, b x , где x ∈ { i , o , f , u } — параметры модели.

    С этим механизмом перехода между состояниями информация каждого узла распространяется на все его соседние узлы после каждого шага. Таким образом, после нескольких шагов перехода каждое состояние узла содержит информацию большого контекста, включая его предков, потомков и братьев и сестер.В худшем случае, когда входной граф представляет собой цепочку узлов, максимальное количество шагов, необходимых для того, чтобы информация от одного произвольного узла достигала другого, равно размеру графа. Мы экспериментируем с разным количеством шагов перехода, чтобы изучить эффективность глобального кодирования.

    Мы используем набор данных WMT16 3 с английского на немецкий, который содержит около 4,5 миллионов пар предложений для обучения.Кроме того, мы используем подмножество полного набора данных (News Commentary v11 [NC-v11], содержащий около 243 000 пар предложений) для разработки и дополнительных экспериментов. Для всех экспериментов мы используем newstest2013 и newstest2016 в качестве наборов для разработки и тестирования соответственно.

    Для предварительной обработки данных используется токенизатор от Moses 4 для токенизации как английской, так и немецкой сторон. Пары обучающих предложений, в которых каждая сторона длиннее 50 слов, отфильтровываются после токенизации.Чтобы справиться с редкими и составными словами, кодирование пар байтов (BPE) 5 (Sennrich et al., 2016) применяется к обеим сторонам. В частности, 8000 и 16000 слияний BPE используются в подмножестве News Commentary v11 и в полном обучающем наборе, соответственно. С другой стороны, JAMR 6 (Flanigan et al., 2016) принят для синтаксического анализа английских предложений на AMR перед применением BPE. Статистика обучающих данных и словарей после предварительной обработки показана в таблицах 1 и 2 соответственно.Для экспериментов с полным обучающим набором мы использовали верхние 40К словаря AMR, что покрывает более 99,6% обучающего набора.

    Мы используем оптимизатор Adam (Kingma and Ba, 2014) со скоростью обучения 0,0005. Размер пакета установлен на 128. Между слоями мы применяем отсев с вероятностью 0,2. Лучшая модель выбирается на основе потери кросс-энтропии в наборе для разработки. Для гиперпараметров модели мы установили число переходов между состояниями графа равным 10 в соответствии с экспериментами по разработке.Каждый узел получает информацию максимум от шести соседей. BLEU (Papineni et al., 2002), TER (Snover et al., 2006) и Meteor (Denkowski and Lavie, 2014) используются в качестве показателей для привязанных и токенизированных результатов.

    Для экспериментов с подмножеством NC-v11 размеры встраивания слов и скрытых векторов установлены равными 500, а модели обучаются максимум для 30 эпох. Для экспериментов с полным обучающим набором размеры встраивания слов и скрытого состояния установлены на 800, а наши модели обучаются максимум для 10 эпох.Для всех систем вложения слов инициализируются и обновляются случайным образом во время обучения.

    Мы сравниваем нашу модель со следующими системами. Seq2seq представляет нашу базовую линию LSTM, основанную на внимании (раздел 3), а Dual2seq — это наша модель, которая использует как последовательный, так и графический кодировщик, а также декодер с двойным вниманием (раздел 4). Чтобы показать достоинства AMR, мы дополнительно сопоставляем нашу модель со следующими базовыми линиями, каждая из которых использует ту же самую структуру с двойным вниманием с BiLSTM для кодирования BPE-сегментированных исходных предложений: Dual2seq-LinAMR использует другой BiLSTM для кодирования линеаризованных AMR. Dual2seq-Dep и Dual2seq-SRL используют нашу рекуррентную сеть графов для кодирования исходных исходных предложений с аннотациями зависимостей и семантических ролей соответственно. Эти три базовых уровня полезны для сопоставления различных методов кодирования AMR и для сравнения AMR с другой популярной структурной информацией для NMT.

    Мы также сравниваем с Transformer (Vaswani et al., 2017) и OpenNMT (Klein et al., 2017), обученных на том же наборе данных и с тем же набором гиперпараметров, что и наши системы. В частности, мы сравниваем Transformer-tf , одну популярную реализацию 7 Transformer на основе TensorFlow, и выбираем OpenNMT-tf , официальный выпуск 8 OpenNMT, реализованный с помощью TensorFlow. Для честного сравнения, OpenNMT-tf имеет один уровень как для кодировщика, так и для декодера, а Transformer-tf имеет конфигурацию по умолчанию (N = 6), но с параметрами, совместно используемыми разными блоками.

    На рис. 4 показаны характеристики системы в зависимости от количества переходов между состояниями графа в наборе для разработки. Dual2seq (self) представляет нашу модель двойного внимания, но ее кодировщик графов кодирует исходное предложение, которое рассматривается как цепной граф вместо графа AMR. По сравнению с Dual2seq , Dual2seq (self) имеет такое же количество параметров, но без семантической информации из AMR.Из-за аппаратных ограничений мы не выполняем исчерпывающий поиск, оценивая все возможные номера переходов между состояниями, а только номера переходов 1, 5, 10 и 12.

    Рисунок 4:

    Dev BLEU сравнивает шаги перехода для кодировщиков графиков. Переход между состояниями не применим к Seq2seq , поэтому мы рисуем пунктирную линию, чтобы представить его производительность.

    Рисунок 4:

    Dev BLEU сравнивает шаги перехода для кодировщиков графиков.Переход между состояниями не применим к Seq2seq , поэтому мы рисуем пунктирную линию, чтобы представить его производительность.

    Наш Dual2seq показывает последовательное улучшение производительности за счет увеличения числа переходов как с 1 до 5 (примерно +1,3 балла BLEU), так и с 5 до 10 (примерно 0,2 балла BLEU). Первое показывает большее улучшение, чем второе, показывая, что производительность начинает сходиться после пяти шагов перехода.Дальнейшее увеличение шагов перехода с 10 на 12 дает небольшое снижение производительности. В соответствии с этими наблюдениями мы установили количество шагов перехода между состояниями равным 10 для всех экспериментов.

    С другой стороны, Dual2seq (self) показывает только небольшие улучшения за счет увеличения числа переходов между состояниями, и он не работает лучше, чем Seq2seq . Оба результата показывают, что прирост производительности Dual2seq не связан с увеличением количества параметров.

    Таблица 3: Характеристики теста. NC-v11 представляет обучение только с данными NC-v11, а Full означает использование полных данных обучения. * представляет значимый (Koehn, 2004) результат ( p Seq2seq . указывает, что чем ниже, тем лучше.
    90 261 BLEU 9015 9015 9015 9015 9015 AMR 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 Трансформатор-AMR-F 902 для каждой группы моделей.


    Модель
    tst2013 tst2015

    ConvSeq2Seq 26,98 24,78
    ConvSeq2Seq-AMR 27.30 24,70
    ConvSeq2Seq-AMR-F 27.40 25,20
    ConvSeq2Seq-AMR-B 26,73 24,53
    Трансформатор 28.60 28,88 26,28
    Трансформатор-AMR-B 28,69 26,01

    6.2. Влияние AMR на модель NMT

    Согласно результатам, представленным в разделе 6.1, модели bi-LSTM-AMR и LightConvSeq2Seq-AMR улучшают BLEU больше, чем две другие модели, ConvSeq2Seq и Transformer. Поэтому для анализа влияния AMR на систему машинного перевода выбираются модели bi-LSTM-AMR и LightConvSeq2Seq-AMR для дальнейшего обучения с целью изучения таких элементов графа, как направления интеграции информации, уровни кодирования графа и агрегаторы.

    6.2.1. Би-LSTM-AMR

    (i). Направление и глубина . На рисунке 5 показано изменение производительности при настройке количества слоев кодирования графа. Агрегатор среднего используется для объединения информации от соседей. В целом, bi-LSTM-AMR и uni-LSTM-AMR-B показывают наивысшее качество перевода на всех 30 исследованных уровнях. Однако увеличение количества слоев не всегда помогает модели достичь более высокого BLEU. Также наблюдается снижение баллов BLEU.Чем больше слоев сложено, тем больший объем информации может усвоить модель, что в конечном итоге приводит к проблеме переобучения из-за насыщенности информации. Все модели получают наилучшие результаты только с 2 или 3 уровнями кодирования графа. По мере увеличения количества слоев баллы BLEU снижаются. Тем не менее, результаты кажутся более последовательными и менее изменчивыми с bi-LSTM, чем с uni-LSTM.

    Для агрегирования информации от соседних узлов используются три агрегатора: агрегатор среднего (MA), агрегатор максимального пула (MP) и агрегатор GCN (GCN-A).Стратегия использования информации с одного направления (вперед или назад) также рассматривается для получения более точных заявлений о влиянии агрегатора на эффективность модели. Результаты в таблице 5 показывают, что Bi-LSTM-AMR-MA достиг наивысшего результата в двух тестовых наборах с оценками BLEU 29,29 и 26,41, соответственно. Между тем, uni-LSTM-AMR-MA, который использует информацию с обеих сторон, получил более низкие оценки BLEU, чем варианты uni-LSTM-AMR-F и uni-LSTM-AMR-B, которые объединяют информацию только из прямого и обратного соседи соответственно.Более того, bi-LSTM-AMR-MA превосходит bi-LSTM-AMR-F и bi-LSTM-AMR-B из-за его способности захватывать информацию с двух направлений во время обучения внедрению узла и комбинировать с информацией от кодировщика bi-LSTM. . Следовательно, декодер LSTM может более эффективно использовать информацию из графа для улучшения качества машинного перевода. Это показывает, что двунаправленное агрегирование более полезно в сочетании с двунаправленным кодировщиком LSTM. Соответственно, uni-LSTM-AMR-F-MP и uni-LSTM-AMR-B-MP, которые объединяют информацию только с одного направления, достигают хороших результатов при использовании с однонаправленным кодером LSTM.


    Модель tst2013 tst2015
    MA MP GCN-A MA 9015 9015 GCN-A MA 9015 GCN-A MA 9015
    Uni-LSTM-AMR 26,97 26,54 26,55 24,81 24,22 24,47
    Uni-LSTM-AMR-F21 26,76 24,59 24,86 24,48
    Uni-LSTM-AMR-B 26,61 24,22 27,22
    Bi-LSTM-AMR 29,29 28,94 28,38 26,41 26,24 25,59
    Bi-LSTM- 281567 28,99 28,43 26,20 25,81 25,70
    Bi-LSTM-AMR-B 28,36 28,40
    50 28,41 2650 9015 9015 9015 9015
    6.2.2. LightConvSeq2Seq-AMR

    Подобно bi-LSTM-AMR, на модель LightConvSeq2Seq-AMR также влияют различные агрегаторы. В частности, как показано в таблице 6, агрегатор среднего (MA) дает лучшие результаты по средним значениям, чем остальные.Результаты с tst2015 показывают, что все три режима с MA достигают гораздо более высоких результатов, чем остальные модели. Напротив, результаты GCN-A самые низкие, как и у Seq2Seq. Это доказывает, что информационная комбинация GCN-A не так эффективна, как у MA и MP.


    Модель tst2013 tst2015
    MA MP GCN-A MA 9015 9015 GCN-A MA 9015 GCN-A MA 9015
    LightConvSeq2Seq-AMR 28.20 28,46 27,76 25,49 25,05 25,33
    LightConvSeq2Seq-AMR-F
    50150 27,82
    50150 27,82
    25,39
    LightConvSeq2Seq-AMR-B 28,25 27,84 28,27 25,66 25,67 25.52

    Полужирным шрифтом выделены самые высокие результаты при оценке каждой модели на агрегаторах (например, MA, MP и GCN-A) для набора тестов (например, tst2013 или tst2015).

    На рисунке 6 показано изменение BLEU при наложении сверточных блоков в кодере и декодере и влияние головок на самовнимание. С обеих сторон оценки BLEU увеличиваются с увеличением количества голов.В частности, на рисунке слева показана модель LightConvSeq2Seq-AMR с конфигурацией, которая объединяет 4 сверточных блока в кодере и 4 сверточных блока в декодере и дает наилучшие результаты. Показатели BLEU составляют примерно 28 и 27,6 с одной головой, а затем возрастают до 28,46 и 28,2, когда. Однако с дополнительным уровнем кодирования графа конфигурация уступает конфигурации. Эта конфигурация дает самые высокие результаты при BLEU примерно 28.4 и наблюдает небольшое уменьшение по мере приближения к 8. Между тем, и конфигурации имеют тенденцию резко снижаться по мере увеличения от 1 до 2 и продолжают незначительно снижаться до тех пор, пока. Между тем, две реконфигурации имеют тенденцию быть противоположными при добавлении уровня кодирования графа, как показано на правом рисунке на рисунке 6. Оставшаяся конфигурация дает самые низкие результаты для двух вариантов уровня кодирования графа. Результаты также больше колеблются с 3 слоями, в отличие от почти постоянных для 2 слоев.

    7. Выводы

    Мы предложили метод интеграции графов AMR в популярные архитектуры машинного перевода, такие как Seq2Seq, ConvSeq2Seq и Transformer. Структурированная семантическая информация из графов AMR может дополнять контекстную информацию в модели перевода для лучшего представления абстрактной информации. Экспериментальные результаты показывают, что графики AMR дают лучшие результаты, чем другие представления, такие как деревья зависимостей или семантические роли.

    Для будущих исследований мы планируем изучить другие методы интеграции более сложных семантических графов, такие как Пражские семантические зависимости, элементарные структуры зависимостей и универсальная концептуальная когнитивная аннотация, а также изучить различные методы кодирования, подходящие для ряда семантических графов.

    Приложение
    A. Анализ ошибок

    В этом разделе представлены некоторые ошибки перевода предложенной модели.

    В первом примере в таблице 7 с bi-LSTM-AMR модель неверно предсказывает, что фраза «and in V Magazine» будет «và V là Magazine». Хотя перевод неверен, модель все же распознает «V Magazine» как имя собственное и что V — это журнал («V là Magazine»). Между тем, как ConvSeq2Seq-AMR, так и Transformer-AMR не могут распознать этот шаблон и пропускают слово «Журнал» при переводе.LightConvSeq2Seq-AMR — единственная модель, которая обеспечивает относительно полный перевод.


    SRC Вот я в футбольной команде и в журнале V.

    REF ây là tôi với i bóng đá trong tạp chí V.

    Bi-LST TRUE Журнал.

    ConvSeq2Seq-AMR ây là tôi trên i bóng á, và trong V.

    LightConvSeq2Seq-AMR ây là tôi ang ở trong đội bóng á và V Magazine.

    Transformer-AMR ây là tôi trong đội bóng á và ở Magazine.

    Пример 2 в таблице 8 иллюстрирует случай, когда модель все еще понимает значение, но выбирает неправильное представление. Английское слово «внутренний» предназначено для дополнения фразы «двигатель внутреннего сгорания», которая уже влечет за собой значение «động cơ đốt trong».В этом случае ConvSeq2Seq-AMR и bi-LSTM -AMR использовали слово «внутренний» для обозначения «внутри» как прилагательное, которое изменяет информацию о местоположении двигателя и игнорирует слово «сгорание» при переводе на вьетнамский язык. Между тем, LightConvSeq2Seq-AMR и Transformer-AMR демонстрируют лучшую производительность при сборе информации, поскольку они обеспечивают точный перевод.


    SRC Двигатель внутреннего сгорания неустойчив.

    REF Động cơ đốt trong không bền vững.

    Bi-LSTM-AMR Động cơ nội tạng không bền vững.

    ConvSeq2Seq-AMR Loại động cơ bên trong không bền vững.

    LightConvSeq2Seq-AMR ng cơ đốt nội không bền vững.

    Трансформатор-AMR ng cơ đốt trong không bền vững.

    В таблице 9 описан случай, когда модель правильно сохраняет значение, но справочные данные неверны. Слово «это» в данных переводится как «những thông tin đó». Это неточный перевод, потому что слово «оно» относится к единственному числу, тогда как перевод имеет форму множественного числа. Кроме того, здесь только одно предложение и нет информации об окружающем контексте, поэтому результаты, полученные с помощью предложенных моделей, похожи друг на друга.Вьетнамское слово «nó» может использоваться для обозначения ранее упомянутых вещей или событий. Таким образом, это весьма неоднозначно, что затрудняет интерпретацию даже для людей.


    SRC Но это не только обо мне.

    REF Nhưng những thông tin đó không chỉ nói về tôi.

    Bi-LSTM-AMR Nhưng nó không chỉ là về tôi.

    ConvSeq2Seq-AMR Nhưng đó không chỉ là tôi.

    LightConvSeq2Seq-AMR Nhưng nó không chỉ là tôi.

    Transformer-AMR Nhưng nó không chỉ là tôi.

    B. Более иллюстративные результаты

    В таблице 10 показаны некоторые примеры переводов моделей: метод Сонга, bi-LSTM (базовая модель) и bi-LSTM-AMR (предлагаемая модель) .

    не

    AMR ‘: arg we: arg (работа: arg we: arg office: градусов всего)

    офисы.

    REF Chúng tôi không làm việc từ những văn phòng.

    Метод Сонга Chúng tôi không làm việc trong văn phòng.

    Bi-LSTM Chúng tôi không làm việc.

    Bi-LSTM-AMR Chúng tôi không làm việc từ các văn phòng.

    AMR ест: arg они: arg помидоры: состояние (вырасти: arg они)

    SRC Если они вырастут помидоры, они съедят помидоры.

    REF Nếu chúng trồng cà chua, chúng sẽ ăn cà chua.

    Метод Сонга Nếu họ phát triển, họ sẽ ăn.

    Bi-LSTM Nếu họ trồng cà chua, họ ăn cà chua.

    Bi-LSTM-AMR Nếu chúng trồng cà chua, chúng ăn cà chua.

    AMR assure: arg i: arg i: arg (thing: arg-of (think: arg you: arg i: duration forever)): градусов всего: mod только

    SRC Я полностью изменил то, что вы обо мне думали, за шесть секунд.

    REF Tôi vừa mới thay đổi hoàn toàn những gì bạn nghĩ về tôi trong vòng 6 giây.

    Метод Сонга Тои кхонг чу ла нхонг ги бун нгхе ва тои тронг вонг 6 гиай.

    Bi-LSTM Tôi hoàn toàn thay đổi những gì bạn nghĩ trong vòng sáu giây.

    Bi-LSTM-AMR Tôi hoàn toàn thay đổi những gì bạn nghĩ về tôi trong 6 giây.

    Доступность данных

    Наборы данных, используемые для подтверждения выводов этого исследования, взяты с https://wit3.fbk.eu/.

    Конфликт интересов

    Авторы заявляют об отсутствии конфликта интересов.

    Вклад авторов

    Лонг Х. Б. Нгуен и Вьет Х. Фам внесли равный вклад в эту работу.

    Благодарности

    Это исследование финансируется Научным университетом, VNU-HCM, номер гранта CNTT 2020-06.

    Семантический нейронный машинный перевод с использованием AMR | Труды ассоциации компьютерной лингвистики

    Интуитивно понятно, что семантические представления должны иметь отношение к машинному переводу, учитывая, что задача состоит в том, чтобы создать предложение на целевом языке с тем же значением, что и ввод на исходном языке. Семантические представления составляли ядро ​​самых ранних систем символического машинного перевода и применялись также к статистическим, но не нейронным системам.

    Использование синтаксиса для нейронного машинного перевода (NMT) было активной темой исследований (Stahlberg et al., 2016; Aharoni and Goldberg, 2017; Li et al., 2017; Chen et al., 2017; Bastings et al., 2017). ; Wu et al., 2017; Chen et al., 2018). С другой стороны, изучению семантики NMT до сих пор уделялось относительно мало внимания. Недавно Marcheggiani et al. (2018) использовали семантическую маркировку ролей (SRL) для NMT, показав, что информация предиката-аргумента из SRL может улучшить производительность основанной на внимании модели «последовательность-последовательность», облегчая проблему «переключения аргументов», 1 — одна частая и серьезная проблема, с которой сталкиваются системы NMT (Isabelle et al., 2017). На рисунке 1 (a) показан один пример информации о семантической роли, который фиксирует только отношения между предикатом ( дает ) и его аргументами ( Джон , жена и присутствует ). Другая важная информация, такая как отношения между Иоанном и женой , не может быть включена.

    Рисунок 1:

    (a) Предложение с аннотациями семантических ролей; (б) соответствующий график AMR этого предложения.

    Рисунок 1:

    (a) Предложение с аннотациями семантических ролей; (б) соответствующий график AMR этого предложения.

    В этой статье мы исследуем полезность представления абстрактного значения (AMR) (Banarescu et al., 2013) в качестве семантического представления для NMT. AMR — это семантический формализм, который кодирует значение предложения в виде корневого ориентированного графа. На рисунке 1 (b) показан граф AMR, в котором узлы (например, give-01 и John ) представляют концепции, а ребра (например, : ARG0 и : ARG1 ) представляют отношения между концепциями. они соединяются.По сравнению с семантическими ролями, AMR охватывают больше отношений, например отношения между Джоном и женой (представлены подграфом в пунктирных линиях). Кроме того, AMR напрямую фиксируют отношения сущностей и абстрагируются от флексий и функциональных слов. В результате они могут служить источником знаний для машинного перевода, ортогонального входному тексту. Кроме того, структурная информация из графов AMR может помочь уменьшить разреженность данных, когда обучающих данных недостаточно для крупномасштабного обучения.

    Последние достижения в области анализа AMR продолжают раздвигать границы современной производительности (Flanigan et al., 2014; Artzi et al., 2015; Pust et al., 2015; Peng et al., 2015; Flanigan et al., 2015; Flanigan et al., 2015; Pust et al., 2015; Peng et al., 2015; Flanigan et al. al., 2016; Buys, Blunsom, 2017; Konstas et al., 2017; Wang, Xue, 2017; Лю, Титов, 2018; Peng et al., 2018; Groschwitz et al., 2018; Guo and Lu, 2018) , и сделали возможным использование автоматически генерируемых AMR для последующих задач, таких как ответы на вопросы (Mitra and Baral, 2015), обобщение (Takase et al., 2016) и обнаружение событий (Li et al., 2015a). Однако, насколько нам известно, ни одна из существующих работ не использовала AMR для улучшения NMT.

    Мы восполняем этот пробел, взяв за основу основанную на внимании систему последовательность-последовательность, которая аналогична Bahdanau et al. (2015). Чтобы использовать знания в рамках графа AMR, мы применяем рекуррентную сеть графа (GRN) (Song et al., 2018; Zhang et al., 2018) в качестве кодировщика AMR. В частности, полный граф AMR рассматривается как одно состояние, а узлы в графе являются его подсостояниями.Переходы состояний выполняются на графе периодически, что позволяет подсостояниям обмениваться информацией через ребра. На каждом повторяющемся шаге каждый узел продвигает свое текущее состояние, получая информацию из текущих состояний своих соседних узлов. Таким образом, с увеличением числа повторяющихся шагов каждое слово получает информацию из более широкого контекста. На рисунке 3 показан повторяющийся переход, при котором каждый узел работает одновременно. По сравнению с другими методами кодирования AMR (Konstas et al., 2017), GRN сохраняет исходную структуру графа, и, таким образом, информация не теряется (Song et al., 2018). Для этапа декодирования в кодере AMR и последовательном кодере приняты два отдельных механизма внимания соответственно.

    Эксперименты с данными WMT16 для перевода с английского на немецкий (4,17 млн) показывают, что использование AMR значительно улучшает базовый уровень «последовательность-последовательность», основанный на внимании (25,5 против 23,7 BLEU). При обучении с мелкомасштабными (226K) данными улучшение увеличивается (19,2 против 16,0 BLEU), что показывает, что структурная информация из AMR может уменьшить разреженность данных, когда данных обучения недостаточно.Насколько нам известно, мы первые, кто исследовал AMR для NMT.

    Наш код и параллельные данные (обучение / разработка / тестирование) с автоматически анализируемыми AMR доступны по адресу https://github.com/freesunshine0316/semantic-nmt.

    Большинство предыдущих работ по изучению семантики для статистического машинного перевода (SMT) изучали полезность структуры предикат-аргумент от семантической маркировки ролей (Wong and Mooney, 2006; Wu and Fung, 2009; Liu and Gildea, 2010; Baker et al., 2012). Джонс и др. (2012) сначала преобразовали выражения Пролога в графические представления смысла, используя синхронную грамматику замены гиперребер для анализа входных графов при генерации выходных данных. Их графическое представление значения отличается от AMR при строгом определении, а их экспериментальные данные ограничены 880 предложениями. Мы первые, кто исследовал AMR в крупномасштабной задаче машинного перевода.

    Недавно Marcheggiani et al.(2018) исследовали SRL на NMT. Структуры предикат-аргумент кодируются с помощью слоев сверточной сети графов (GCN) (Kipf and Welling, 2017), которые накладываются поверх обычных слоев BiRNN или CNN. Наша работа соответствует изучению семантической информации, но отличается от использования AMR, а не SRL для NMT. Кроме того, мы используем GRN (Song et al., 2018; Zhang et al., 2018) для моделирования AMR, а не GCN, который формально согласуется с кодировщиком предложений RNN. Поскольку нет однозначного соответствия между узлами AMR и исходными словами, мы применяем декодер LSTM с двойным вниманием, что является еще одним важным отличием от Marcheggiani et al.(2018).

    GRN недавно были использованы для моделирования структур графов в задачах NLP. В частности, Zhang et al. (2018) используют модель GRN для представления сырых предложений путем построения структуры графа из соседних слов и узла уровня предложения, показывая, что кодировщик превосходит BiLSTM и Transformer (Vaswani et al., 2017) в задачах классификации и маркировки последовательностей; Song et al. (2018) построили GRN для кодирования графиков AMR для генерации текста, показывая, что представление превосходит BiLSTM в сериализованном AMR.Мы расширяем Song et al. (2018), исследуя полезность AMR для нейронного машинного перевода. Насколько нам известно, мы первые, кто использует GRN для машинного перевода.

    Помимо GRN и GCN, существовали и другие нейронные сети с графами, такие как нейронная сеть с графическим выводом (GGNN) (Li et al., 2015b; Beck et al., 2018). Поскольку наша основная задача — эмпирически исследовать эффективность AMR для NMT, мы оставляем на будущее, чтобы сравнить GCN, GGNN и GRN для нашей задачи.

    На рисунке 3 показана общая структура нашей рекуррентной сети графов для кодирования графов AMR, которая следует за Song et al. (2018). Формально, учитывая график AMR G = ( V , E ), мы используем вектор скрытого состояния a j для представления каждого узла
    1 905 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015
    Система . NC-v11 . Полный .
    . BLEU . ТЕР . Метеор . BLEU . ТЕР . Метеор .
    OpenNMT-tf 15,1 0,6902 0,3040 24,3 0,5567 0,4225
    трансформатор 901 tf50 0,6647 0,3578 25,1 0,5537 0,4344
    Seq2seq 16,0 0,6695 0,3379 0,6695 0,3379 23,750 23,750 0,6530 0,3612 24,0 0,5643 0,4246
    Duel2seq-SRL 17,2 0.6591 0,3644 23,8 0,5626 0,4223
    Dual2seq-Dep 17,8 0,6516 0,3673 0,6305 0,3840 25,5 * 0,5480 0,4376
    9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 901 9015 9015 9015 9015 9015 9015 9015 9015 9015 9015 0,5538
    Система . NC-v11 . Полный .
    . BLEU . ТЕР . Метеор . BLEU . ТЕР . Метеор .
    OpenNMT-tf 15,1 0,6902 0,3040 24.3 0,5567 0,4225
    Трансформатор-tf 17,1 0,6647 0,3578 25,1 0,5537 0,4344 0,5537 0,4344 0,5537 0,4344
    0,5590 0,4258
    Dual2seq-LinAMR 17,3 0,6530 0,3612 24,0 0.5643 0,4246
    Duel2seq-SRL 17,2 0,6591 0,3644 23,8 0,5626 0,4223
    0,4328
    Dual2seq 19,2 * 0,6305 0,3840 25.5 * 0,5480 0,4376

    С точки зрения BLEU, Dual2seq значительно лучше, чем Seq2seq в обеих настройках, что показывает эффективность включения информации AMR. В частности, улучшение намного больше при мелкомасштабной настройке (+3,2 BLEU), чем при крупномасштабной настройке (+1.7 BLEU). Это свидетельство того, что структурная и крупнозернистая семантическая информация, закодированная в AMR, может быть более полезной, когда обучающие данные ограничены.

    При обучении на подмножестве NC-v11 разрыв между Seq2seq и Dual2seq под Meteor (около 5 баллов) больше, чем с BLEU (около 3 баллов). Поскольку Meteor частично доверяет выходным данным, которые являются синонимами ссылки или имеют идентичные основы, одно из возможных объяснений состоит в том, что структурная информация в AMR помогает лучше переводить концепции с исходного языка, которые могут быть синонимами или паронимами ссылочных слов.

    Как показано во второй группе таблицы 3, мы далее сравниваем нашу модель с другими методами использования синтаксической или семантической информации. Dual2seq-LinAMR показывает намного худшую производительность, чем наша модель, и лишь немного превосходит базовый уровень Seq2seq . Оба результата показывают, что простое использование концепций AMR без их взаимосвязей не очень помогает. Одна из причин может заключаться в том, что концепции AMR, такие как John и Mary , также появляются в текстовом вводе и, таким образом, также кодируются другим (последовательным) кодировщиком. 9 Разрыв между Dual2seq и Dual2seq-LinAMR возникает из-за моделирования отношений между концептами, которые могут быть полезны для определения целевого порядка слов путем улучшения отношений в исходных предложениях. Мы пришли к выводу, что правильное кодирование AMR необходимо, чтобы сделать их полезными.

    Кодирование деревьев зависимостей вместо AMR, Dual2seq-Dep показывает больший разрыв в производительности с нашей моделью (17.8 против 19,2) на небольших обучающих данных, чем на крупномасштабных обучающих данных (25,0 против 25,5). Вероятно, потому, что AMR более полезны для уменьшения разреженности данных, чем деревья зависимостей, поскольку слова лемматизируются в унифицированные концепции при синтаксическом анализе предложений в AMR. Для моделирования дальнодействующих зависимостей AMR имеют одно решающее преимущество перед деревьями зависимостей за счет более прямого моделирования отношений концепт-концепт. Это потому, что AMR отбрасывают функциональные слова; таким образом, расстояния между концепциями в AMR обычно меньше, чем в деревьях зависимостей.Наконец, Dual2seq-SRL менее эффективен, чем наша модель, потому что аннотации, помеченные SRL, являются подмножеством AMR.

    Мы опережаем Marcheggiani et al. (2018) на тех же наборах данных, хотя наши системы различаются по ряду аспектов. При обучении на данных NC-v11 они показывают баллы BLEU 14,9 только с базовым уровнем BiLSTM, 16,1 с использованием дополнительной информации о зависимостях, 15,6 с использованием дополнительных семантических ролей и 15.8 принимая и то, и другое как дополнительные знания. Используя Full в качестве данных обучения, оценки становятся 23,3, 23,9, 24,5 и 24,9 соответственно. В дополнение к используемому разному семантическому представлению (AMR против SRL), Marcheggiani et al. (2018) поместили слои GCN (Kipf and Welling, 2017) поверх двунаправленного слоя LSTM (BiLSTM), а затем конкатенировали выходные данные слоев в качестве памяти внимания. Слои GCN кодируют информацию о семантической роли, в то время как слои BiLSTM кодируют входное предложение на исходном языке, а объединенные скрытые состояния обоих слоев содержат информацию как из семантической роли, так и из исходного предложения.Для включения AMR, поскольку нет однозначного соответствия между словом и узлом между предложением и соответствующим графом AMR, мы принимаем отдельные модели внимания. Наши оценки BLEU выше, чем у них, но мы не можем сделать вывод, что преимущество в первую очередь исходит от AMR.

    Чтобы проанализировать влияние анализа AMR на производительность нашей модели, мы дополнительно оценим тестовый набор, в котором доступны золотые AMR для английской стороны.В частности, мы выбрали корпус The Little Prince , который содержит 1562 предложения с золотыми аннотациями AMR. 10 Поскольку параллельных предложений на немецком языке нет, мы берем роман Маленький принц на немецком языке, а затем выполняем выравнивание предложений вручную. Взяв весь корпус The Little Prince в качестве тестового набора, мы измеряем влияние точности анализа AMR, оценивая на тестовом наборе, когда доступны золотые или автоматически проанализированные AMR.Автоматические AMR генерируются путем синтаксического анализа английских предложений с помощью JAMR.

    В таблице 4 показаны оценки BLEU для нашей модели Dual2seq с использованием золотых или автоматических AMR в качестве входных данных. Не указанный в таблице 4, Seq2seq достигает показателя BLEU 15,6, что на 1,2 балла BLEU ниже, чем при использовании автоматической информации AMR. Улучшение от автоматического AMR до золотого AMR (+0,7 BLEU) является значительным, что показывает, что качество перевода нашей модели может быть дополнительно улучшено с увеличением точности анализа AMR.Однако оценка BLEU с золотым AMR не указывает на потенциально лучшую производительность, которую может достичь наша модель. Основная причина заключается в том, что даже несмотря на то, что тестовый набор связан с золотыми AMR, обучающий набор — нет. Обученная автоматическим AMR, наша модель может научиться выборочно доверять структуре AMR. Дополнительной причиной является различие в домене: Данные Little Prince относятся к литературной области, а наши обучающие данные — к области новостей. Возможен дальнейший прирост производительности, если точность автоматических AMR на обучающем наборе будет улучшена.

    Мы предполагаем, что AMR должны быть более полезными для более длинных предложений: они, вероятно, будут содержать дальние зависимости (такие как дискурсивная информация и структуры предикат-аргумент), которые могут не быть адекватно захвачены линейными цепными RNN, но непосредственно закодированы в AMR. . Чтобы проверить это, мы разбиваем тестовые данные на четыре сегмента по длине и вычисляем BLEU для каждого из них. На рисунке 5 показаны характеристики нашей модели вместе с Dual2seq-Dep и Seq2seq .Наша модель превосходит базовый уровень Seq2seq довольно равномерно по всем сегментам, за исключением первого, где они примерно равны. Это может быть удивительно. С одной стороны, Seq2seq не может уловить некоторые зависимости для экземпляров средней длины; с другой стороны, анализ AMR более шумный для более длинных предложений, что не позволяет нам получить дополнительные улучшения с помощью AMR.

    Рисунок 5:

    Тест BLEU с оценкой различной длины предложений.

    Рисунок 5:

    Результат теста BLEU для различных длин предложений.

    Деревья зависимостей оказались полезными для захвата зависимостей на большие расстояния. На рисунке 5 показано, что AMR сравнительно лучше, чем деревья зависимостей, особенно для предложений средней длины (21–30). Причина может заключаться в том, что AMR предложений средней длины намного точнее, чем предложения длинных, и, следовательно, лучше фиксируют отношения между концепциями.С другой стороны, хотя деревья зависимостей более точны, чем AMR, они все же не могут представить отношения для длинных предложений. Вероятно, это связано с тем, что сложнее обнаружить отношения в длинных предложениях. Другая возможная причина заключается в том, что деревья зависимостей не включают в себя основные ссылки, которые учитываются AMR.

    Мы дополнительно изучаем качество перевода структур «предикат – аргумент», проводя человеческую оценку на 100 экземплярах из тестового набора.В ходе оценки переводы Dual2seq и Seq2seq вместе с исходным английским предложением, немецкой ссылкой и AMR предоставляются немецкоязычному аннотатору, чтобы решить, какой перевод лучше отражает структуры предиката-аргумента в исходное предложение. Чтобы избежать смещения аннотаций, результаты перевода обеих моделей меняются местами для некоторых экземпляров, и аннотатор на немецком языке не знает, к какой модели принадлежит каждый перевод. Аннотатор либо выбирает «победителя», либо принимает решение «ничья», что означает, что оба результата одинаково хороши.

    Из 100 экземпляров Dual2seq выигрывает у 46, Seq2seq выигрывает у 23, и есть ничья в оставшихся 31. Dual2seq выигрывает почти в половине экземпляров, примерно в два раза чаще, чем Seq2seq выигрывает, указывая на то, что AMR помогают в преобразовании структур предикат-аргумент на стороне источника.

    Выходные данные базовой системы ( Seq2seq ) и нашей окончательной системы ( Dual2seq ) показаны на рисунке 6.В первом предложении система Dual2seq на основе AMR правильно производит возвратное местоимение sich в качестве аргумента глагола trafen ( meet ), несмотря на расстояние между словами в выводе системы и несмотря на то, что эквивалентные английские слова друг другу не отображаются в выводе системы. Этому способствует структура аргументов в анализе AMR.

    Рисунок 6

    Рисунок 6

    Во втором предложении система Dual2seq, основанная на AMR, дает слишком дословный перевод английского фразового глагола , с которым встречается .Однако в переводе Seq2seq неверно указано, что в полицейских машинах находятся беженцев. Сложность для Seq2seq, вероятно, частично проистекает из того факта, что — это и , прибывающий , разделены словом , постоянно во входных данных, в то время как основной предикат ясен в представлении AMR.

    В третьем предложении система Dual2seq правильно переводит объект породы как червей , в то время как перевод Seq2seq неверно утверждает, что сами ученые порода .Здесь трудность, вероятно, заключается в расстоянии между объектом и глаголом в немецком выводе, из-за чего система Seq2seq теряет отслеживание правильной позиции ввода для перевода.

    Знание устойчивости к противомикробным препаратам на практике: качественное исследование в разных странах с участием специалистов в области здравоохранения и здравоохранения

    Предпосылки : Устойчивость к противомикробным препаратам (УПП) — растущая глобальная проблема.Повышение осведомленности занимает центральное место в глобальных и национальных планах действий по борьбе с УПП в человеческом и животноводческом секторах. Фактические данные о лучших способах сокращения использования антибиотиков и о влиянии мероприятий по повышению осведомленности неоднозначны. Эта нехватка доказательств особенно остро стоит в странах с низким и средним уровнем доходов (СНСД), где считается, что медицинские работники, выписывающие и отпускающие противомикробные препараты, имеют ограниченную осведомленность об УПП и ограниченные знания об оптимальном использовании противомикробных препаратов. Цели : Это исследование было направлено на изучение осведомленности об УПП среди специалистов в области здравоохранения человека и животных, а также на контекстные вопросы, влияющие на взаимосвязь между осведомленностью и практикой назначения и отпуска противомикробных препаратов в различных условиях СНСД. Методы : Качественные интервью и полевые наблюдения были проведены в семи исследовательских центрах в Эфиопии, Индии, Нигерии, Филиппинах, Сьерра-Леоне и Вьетнаме. Данные включали стенограммы интервью с 244 специально отобранными медицинскими работниками, проанализированные по сквозным темам. Результаты : осведомленность об УПП была высокой среди специалистов в области здравоохранения человека и животных. Осведомленность об УПП не привела к сокращению количества выписываемых препаратов и лекарств; скорее, это связано с готовностью использовать антибиотики следующего поколения.Контекстные факторы, которые повлияли на назначение и отпуск антибиотиков, включали доступность и доступность антибиотиков; отсутствие информации о местной чувствительности к антибиотикам; опасения по поводу гигиены и санитарии; и взаимодействие с медицинскими представителями. Выводы : Высокая осведомленность об УПП среди исследуемых нами популяций не привела к сокращению назначения антибиотиков. Факторы контекста, такие как улучшенная инфраструктура, информация и регулирование, кажутся важными для уменьшения зависимости от антибиотиков.

    Ключевые слова: Устойчивость к антибиотикам; Здравоохранение; выдача антибиотиков; назначение антибиотиков; устойчивость к противомикробным препаратам; медицинские работники.

    — amr — Перевод на английский — примеры французский

    Эти примеры могут содержать грубые слова, основанные на вашем поиске.

    Эти примеры могут содержать разговорные слова, основанные на вашем поиске.

    ДЕЙСТВИЯ СРОЧНЫЕ. ДОКУМЕНТ ПУБЛИЧНЫЙ ÉFAI — 010118 — AMR 43/002/01 Дополнительная информация для Австралии 380/00 ​​(AMR 43/003/00 …

    Ман Бахадур Шреста и Сурья Бастакоти , как сообщается, были арестованы в муниципалитете Катманду 11 декабря 2003 года и 22 марта 2004 года соответственно.

    ДОКУМЕНТ ПУБЛИЧНЫЙ ÉFAI — 9 — AMR 14/04/99.Комплементарное действие для EXTRA 101/99 (AMR 14.01.99 за 4 августа 1999 г.) и suivante.

    В этом отчете рассматриваются некоторые из основных вопросов, вызывающих озабоченность Amnesty International в отношении защиты прав человека на Багамах, с уделением особого внимания заключенным, содержащимся под стражей …

    СРОЧНЫЕ ДЕЙСТВИЯ i. ДОКУМЕНТ ПУБЛИЧНЫЙ ÉFAI — AU 020034 — AMR 20/001/02 Дополнительный информационный бюллетень для AU 329/01 (AMR 20/004/01 по 21 декабря 2001 г.).

    В этом документе Amnesty International уделяет внимание четырем из 12 важнейших проблемных областей Платформы действий: насилие в отношении женщин, женщины и вооруженные конфликты …

    ДЕЙСТВИЯ СРОЧНЫЕ. ПУБЛИЧНЫЙ ДОКУМЕНТ ÉFAI — 010128 — AMR 23/026/01 Дополнение к действию в отношении австралийского союза 39/01 (AMR 23/018/01 du 12 février 2001).

    Семья Каушали Похрел получила неподтвержденные сообщения о том, что она содержится в армейских казармах Радж Дал Гана в Лаганхеле, район Лалитпур.

    ДЕЙСТВИЯ СРОЧНЫЕ. ДОКУМЕНТ ПУБЛИЧНЫЙ ÉFAI — 020268 — AMR 23/043/02 Дополнение к действию в отношении AU 98/02 (AMR 23/034/02 от 2 апреля 2002 г.).

    Сообщается, что в период с 24 августа по 17 августа в районе Катманду были арестованы три человека, Динеш Лимбу (также известный как Раджеш Лиму), Баларам Рай и Сиддант Паудель…

    ДЕЙСТВИЯ СРОЧНЫЕ. DOCUMENT PUBLIC ÉFAI — 020393 — AMR 53/007/02 Дополнительная информация на 142/02 г. (AMR 53/005/02 за 10 мая 2002 г.).

    Сообщается, что полицейские пытались убить старшего офицера, дающего показания в ходе расследования деятельности полицейских эскадронов смерти в Португалии …

    ДЕЙСТВИЯ СРОЧНЫЕ.ПУБЛИЧНЫЙ ДОКУМЕНТ ÉFAI — 030364 — AMR 53/010/2003 Дополнение к действиям в отношении AU 130/03 (AMR 53/007/2003 du …

    В этом документе сообщается о нарушениях прав человека, совершенных во время вспышки политического насилия с 27 февраля по 4 марта 2004 года в Венесуэле.

    Предложите пример

    Другие результаты

    Конвертируйте MP3 в AMR , WAV в AMR , AMR в MP3, WAV в AMR на телефон.

    Конвертируйте MP3 в AMR , WAV в AMR , AMR в MP3, AMR в WAV для своего мобильного телефона.

    ДЕЙСТВИЯ СРОЧНЫЕ. ПУБЛИЧНЫЙ ДОКУМЕНТ AMR 19/016/2006 — ÉFAI Information Complémentaires sur l’AU 71/06 ( AMR 19/013/2006 на 30 марта 2006 г.).

    3 ноября 2003 года сотни бездомных семей заняли заброшенную фабрику по производству одежды в центре Сан-Паулу, Бразилия, 22-этажное здание Prestes Maia.

    ДЕЙСТВИЯ СРОЧНЫЕ. ПУБЛИЧНЫЙ ДОКУМЕНТ AMR 53/001/2005 — ÉFAI Action Complémentaire sur l’AU 226/04 ( AMR 53/011/2004 du 16 juillet …

    Правозащитник Хос Луис Урбано был ранен 10 февраля в своем родном городе Барселона в северном штате Анзо теги.

    ДЕЙСТВИЯ СРОЧНЫЕ.ПУБЛИЧНЫЙ ДОКУМЕНТ AMR 51/056/2005 — ÉFAI Information Complémentaires sur l’AU 58/05 ( AMR 51/054/2005 на 11 марта 2005 г.).

    Малолетний преступник Сина Paymand получил отсрочку в последний момент от семьи человека, которого он якобы убил.

    ДЕЙСТВИЯ СРОЧНЫЕ. ПУБЛИЧНЫЙ ДОКУМЕНТ AMR 20/002/2006 — ÉFAI Дополнительный информационный бюллетень для Австралии 64/06 ( AMR 20/001/2006 на 20 марта 2006 г.).

    Несмотря на постоянные сообщения о пытках и других случаях жестокого обращения со стороны разведки Афганистана, военнослужащие сил под руководством НАТО продолжают передавать задержанных …

    Преобразователь MP3 в AMR является мощным преобразователем AMR , который позволяет преобразовывать аудио в форматы AMR для мобильных телефонов.

    Программа Allok MP3 to AMR Converter — это мощный конвертер AMR , который позволяет конвертировать аудиофайлы в формат AMR , используемый вашим мобильным телефоном, и обратно.

    Фарида Amr Mohamed Mohamed Asal (продолжить запись с именем Фарида Amr Mohamed Mohamed Assal), урожденная 20 февраля 2001 г., fille de Amr Mohamed Mohamed Assal 133.

    Фарида Амр Мохамед Мохамед Асал (также известный среди других имен как Фарида Амр Мохамед Мохамед Ассаль), родилась 20 февраля 2001 г., дочь Амр Мохамед Мохамед Ассаль 133.

    Программный модем Lucent Technologies AMR … Модем AMR Программный модем Lucent Technologies AMR Программный модем Lucent Technologies PCI Программный модем Lucent Technologies Издатель: Lucent Technologies Lucent Тип устройства: Модем-модем…

    Программный модем Lucent Technologies AMR … Модем PCI Программный модем Lucent Technologies Издатель: Lucent Technologies Lucent Тип устройства: Модем Модем PCI Операционные системы … MultiTech Systems MT1932ZDX …

    Система эксплуатации проекта Photon создана для клиентов VMware и является директором по маркетингу продукции Amr Abdelrazik ( Amr Abdelrazik).

    Операционная система Project Photon была создана в ответ на потребности клиентов VMware, сказал менеджер по маркетингу продукта Amr Абдельразик ( Amr Abdelrazik).

    Mohamed Amr Mohamed Mohamed Assal, fils de Amr Mohamed Mohamed Assal 132.

    Мохамед Амр Мохамед Мохамед Ассаль, сын Амр Мохамед Мохамед Ассаль 132.

    Залейте несколько адаптируемых битов ( AMR ), чтобы проверить, что они действительны и настроены для AMR , настраиваемые и типы дескрипторов тишины (SID).

    Для адаптивной многоскоростной передачи ( AMR ) тестирование может выполняться на основе настраиваемых скоростей AMR, и типов дескриптора тишины (SID).

    la concept de pont AMR du capteur AMR produit les décalages minimaux qui entraînent une performance optimale

    Конструкция моста AMR датчика AMR , описанного здесь, дает минимальные смещения, что приводит к его оптимальной производительности

    ДЕЙСТВИЯ СРОЧНЫЕ.ПУБЛИЧНЫЙ ДОКУМЕНТ AMR 37/016/2003 — ÉFAI Action Complémentaire sur l’AU 128/03 ( AMR 37/006/2003 за 8 мая 2003 г.).

    Члены общины Pataxó Hãhãhãe больше не находятся под угрозой принудительного выселения, поскольку они добровольно покинули семь ферм, которые они занимали в …

    amr — Перевод на японский — примеры английский

    Эти примеры могут содержать грубые слова, основанные на вашем поиске.

    These examples may contain colloquial words based on your search.

    Research programming, checking and analysis was conducted by research company amr , who commissioned local online survey providers to question seafood consumers within these countries.

    調査会社 amr が調査の企画、確認、分析を行い、各国のオンライン調査プロバイダーに調査の実施を依頼しました。

    Actually, after deletion or loss of files under many circumstances, amr files are not erased permanently from storage drive.

    実際に、多くの状況下でのファイルの削除または失われた後、 AMR ファイルがストレージ·ドライブから完全に消去されていません。

    AMR stands for «anisotropic magneto resistance.»

    AMR とはAnisotropic Magneto Resistanceの略で異方性磁気抵抗の意味です。

    STP PATHWAY CONTROL SYSTEM APPLIED TO WIRELESS COMMUNICATION DEVICE HAVING AMR FUNCTION

    AMR 機能を有する無線通信装置に適用されるSTP経路制御システム

    A recent AMR Research study reports that an average upgrade takes about 7 months from planning to launch, of which testing consumes 22%.

    AMR  Researchによる最近の調査では、平均的なアップグレードでは、プランニングから本番運用開始までに約7か月を要し、そのうち22%がテストに費やされると報告されています。

    We call on all stakeholders to join the fight against AMR .

    更に私たちは、全てのステークホルダーに対して一緒に AMR への闘いに挑むことを呼びかけています。

    We acknowledge that emergence of AMR is an increasing threat to global health.

    我々は、薬剤耐性( AMR )の出現が国際保健に対する増大する脅威であることを認識する。

    Antimicrobial resistance ( AMR ) poses a serious threat to public health, growth and global economic stability.

    薬剤耐性( AMR )は,公衆衛生,成長及び世界経済の安定に深刻な脅威を与えている。

    For more details on Auto-Margin Replenishment ( AMR ), click here.

    自動証拠金補充( AMR )の詳細については、こちらをクリックしてください。

    The flexibility of WordPress and WP Engine as a whole was highly effective and beneficial to AMR Hair’s workflows.

    WordPressとWPエンジンの柔軟性は、 AMR  Hair社のワークフローにとって非常に効果的で便益をもたらします。

    Current consumption required for the AMR sensor to operate.

    AMR センサが動作するのに消費する電流です。

    Competing for the first time, the new Aston Martin Vantage AMR achieved a promising race.

    今回初めて新型Vantage  AMR を投入したアストンマーティン・レーシングも今後が楽しみなレースを展開しました。

    An easy to operate wizard that allows users to make AMR file recovery on various versions of Windows (also available for Macintosh machines).

    ユーザーがWindowsのさまざまなバージョン(Macintoshマシンにも使用可能)での AMR ファイルの回復を行うことができ、ウィザードを操作しやすい。

    AMR is sometimes replaced with Advanced Metering Infrastructure (AMI) to highlight the evolution from simple remote meter reading.

    AMR ではなく高度検針インフラストラクチャ(AMI)を使用する場合は、単純なリモート検針からいかに進化したかが一層明らかになります。

    AMR Research put together a chart based on category of industry (see slide) to demonstrate the dollars of revenue lost per hour of system downtime.

    AMR  Researchでは、システムが1時間ダウンした場合に生じる収益損失の額を、業界別にグラフにまとめています(スライドを参照)。

    The demand for Anisotropic Magneto-Resistive ( AMR ) position sensors has increased with its ability to be packaged and sealed within a device while measuring a magnetic scale external to the assembly.

    異方性磁気抵抗 ( AMR ) 位置センサは、アセンブリ外部の磁気スケールを測定しながら装置内に実装・密閉できることから、その需要が高まっています。

    Furthermore, it is also important to encourage research and development of drugs, including drugs for the treatment of AMR and neglected tropical diseases (NTDs) through public-private partnership.

    さらに、 AMR や顧みられない熱帯病(NTDs)のための治療薬を含め、官民が連携した研究開発も重要です。

    Antimicrobial resistance ( AMR ) is a real and immediate global threat.

    AMR は、現実的でかつ喫緊なグローバルな脅威です。

    Creating A Parlor For Beauty And Luxury Online Understanding the importance of engaging digital experiences, AMR Hair needed a trusted platform to build a creative, agile site.

    美とラグジュアリーのためのオンライン店舗創設 デジタルエクスペリエンスを高めることの重要性を理解するために、 AMR  Hair社はクリエイティブでアジャイルなサイトをつくり信用されるプラットフォームをつくることが必要でした。

    It helps to recover MP3, MP4, M4b, M4A, AIFF, RA, AMR and other audio file format.

    MP3を復元する, MP4、M4b、M4A、AIFF、RA、 AMR および他のオーディオファイルフォーマット。

    Communicating antimicrobial resistance: the need to go beyond human health | JAC-Antimicrobial Resistance

    Despite significant resource mobilization to address antimicrobial resistance (AMR), a persistent ‘action gap’ remains between AMR governance and the realization of societal change.В международных и национальных сетях управления УПП широко признана проблемой, выходящей за рамки здоровья человека и требующей значительного и безотлагательного внимания со стороны всех слоев общества. Напротив, информационные кампании по УПП по-прежнему в основном сосредоточены на том, чтобы представить УПП как проблему здоровья человека, с сообщениями, нацеленными на индивидуальное потребление противомикробных препаратов. В этой статье мы утверждаем, что кампании по повышению осведомленности об УПП должны рассматривать проблему как проблему, выходящую за рамки здоровья человека, чтобы привлечь большее количество и более широкий круг заинтересованных сторон из всего общества.Мы утверждаем, что это могло бы поддержать усилия по сокращению пробелов в действиях по УПП, сделав проблему более актуальной для более широкого круга заинтересованных сторон, расширив сферу ответственности и сместив акцент с индивидуалистических на общественные изменения.

    Пандемия COVID-19 продемонстрировала не только далеко идущее воздействие одного неизлечимого инфекционного патогена, но и возможности для быстрых общесоциальных изменений в ответ на такую ​​угрозу. Устойчивость к противомикробным препаратам (УПП) привлекает значительное международное внимание и ресурсы и потенциально представляет гораздо большую долгосрочную клиническую, экономическую, социальную и экологическую угрозу, чем COVID-19, 1-3 , но при этом участие и действия всего общества по этой проблеме оказывается трудным для реализации. 4 , 5 В основе реагирования на COVID-19 лежит эффективное общение между заинтересованными сторонами из разных секторов, при этом проблемы несоблюдения требований объясняются плохой ясностью и последовательностью сообщений, даже если они подкреплены законом. 6 Независимый обзор правительства Великобритании по УПП рекомендовал масштабную глобальную информационную кампанию, оцениваемую в 40–100 миллионов долларов США в год, 3 , и эффективная коммуникация по УПП является краеугольным камнем глобального плана действий по УПП, 7 , однако исследования продолжаются. демонстрируют относительно низкий уровень осведомленности об УПП во всем мире, с распространенными недоразумениями и чувством среди общественности, что УПП является проблемой, не зависящей от них. 8–10 Межучрежденческая координационная группа (IACG) по УПП определила необходимость выхода за рамки здоровья человека при распространении информации об УПП, рекомендуя рассматривать ее в контексте достижения более широких социальных целей, таких как продовольственная безопасность и устойчивое развитие, чтобы привлекать общественность за пределами клиники и преодолевать «пробел в действиях» государственной политики по УПП. 4 , 11 Соответственно, целостный подход «Единое здоровье» стал доминирующим дискурсом в международных политических документах по УПП и национальных планах действий по УПП, несмотря на критику по поводу присущей ему антропоцентричности. 11–15 Напротив, большинство кампаний по информированию общественности на сегодняшний день и недавние руководящие принципы, разработанные для их поддержки, по-прежнему сосредоточены на том, чтобы рассматривать УПП как проблему здоровья человека, а сообщения в основном нацелены на индивидуальные клинические встречи и неправильное использование антибиотиков, а не более широкие общественные действия, необходимые для решения проблемы злоупотребления антибиотиками и передачи УПП. 8 , 16 , 17 Например, продолжающаяся в Великобритании кампания «Держите антибиотики в рабочем состоянии» специально нацелена на отдельных пользователей антибиотиков и рассматривает УПП как проблему здоровья человека, которая может привести к более серьезному или продолжительному заболеванию. ‘. 18 В Руководстве по ответственному использованию антибиотиков у сельскохозяйственных животных в Великобритании УПП рассматривается как проблема, которая может повлиять на здоровье как человека, так и животных, но снимает ответственность с использования противомикробных препаратов у животных, неоднократно заявляя, что « эксперты сходятся во мнении, что основная причина устойчивости к антибиотикам у патогенов человека является чрезмерное и / или ненадлежащее использование антибиотиков в медицине ». 19 Таким образом, несмотря на признанную важность инклюзивного кадрирования для вовлечения более широкой аудитории, AMR обычно не сообщается общественности.Мы опираемся на доказательства того, что это необходимо изменить.

    Было показано, что широкая общественная поддержка является ключевым фактором как для вывода разработки политики на передний план, так и для успешной реализации, 8 , и мы исходим из предположения, что эффективная коммуникация играет важную роль в мобилизации скоординированной поддержки и усилий, необходимых для всех секторов и дисциплин для достижения этой цели. 20 , 21 То, как сообщение оформлено, является ключом к четкому определению проблемы, кто несет ответственность, на кого это повлияет, и, что важно, к решениям. 22 Обозначение УПП как проблемы, выходящей за рамки здоровья человека, расширило бы ее определенные воздействия, включив в нее значительные риски, которые передача УПП и ненадлежащее использование противомикробных соединений представляют для глобальной продовольственной безопасности, благополучия животных и окружающей среды. В свою очередь, это приведет к увеличению численности населения и круга заинтересованных сторон, которые считают, что проблема имеет отношение к их жизни, увеличивая количество людей и организаций, которые могут принять меры для ее решения.Более инклюзивное описание УПП также подтвердит использование животных и окружающей среды для привлечения общественности к решению этой проблемы; это две эмоциональные темы, которые могут помочь заручиться поддержкой общества и могут быть использованы для расширения воздействия визуальных образов, что особенно эмоционально, но традиционно сложно для кампаний по повышению осведомленности об УПП из-за микроскопического масштаба, в котором действует УПП. 8 , 23 Использование противомикробных препаратов для сельскохозяйственных животных и воздействие фармацевтических загрязнителей на окружающую среду являются текущими проблемами в общественной сфере и могут быть более непосредственными для некоторых людей, чем устойчивые инфекции; 24 , 25 включение их в сообщения AMR, таким образом, может помочь преодолеть наши общие тенденции к временному дисконтированию и приближению, в результате чего будущие и более отдаленные риски воспринимаются с меньшей серьезностью. 20 , 26 Более исчерпывающие определения причин и решений проблемы также расширили бы взаимодействие, выйдя за рамки «неправильного использования противомикробных препаратов» и привлекая большее внимание к бесчисленным общественным факторам, которые все чаще становятся основными. движущие силы глобального УПП. 27–29 Если рассматривать УПП как проблему, выходящую за рамки здоровья человека, определенные решения и ответственность за их принятие могут выйти за рамки отдельного потребителя противомикробных препаратов, который часто имеет ограниченные возможности для действий. 20 , 30 Это расширит вину на те секторы общества, которые могут показаться далекими от современной медицины, но тем не менее способствуют созданию среды, в которой может возникать и распространяться УПП, например, в пищевой и обрабатывающей промышленности. 31

    Международное сообщество AMR призвало к дополнительным исследованиям по оптимизации коммуникаций AMR для местных условий, чтобы улучшить понимание локализованного риска AMR для оценки / определения приоритетов вмешательств и адаптации решений. 4 , 8 , 10 , 16 , 32 , 33 С этой целью определение AMR как проблемы, выходящей за рамки здоровья человека, позволит решить более широкий спектр сообщений, которые должны быть нацелены на более разнообразные аудитории и, что важно, помочь привлечь тех, для кого риск их действий, подрывающих современную медицину, не является приоритетом, например, заинтересованные стороны в пищевой промышленности в странах с низким и средним уровнем доходов. 30 Будущее планирование осведомленности об УПП могло бы извлечь уроки из исследований COVID-19 и изменения климата в стратегические нарративы для устранения пробелов между политикой и обществом, которые подчеркнули важность вовлечения всех заинтересованных сторон в обществе для итеративного совместного создания повествования посредством конструктивного диалога . 6 , 34 Поскольку Группа глобальных лидеров AMR продолжает обеспечивать лидерство в области коммуникационных стратегий AMR, исследования их практического применения должны вовлекать тех, для кого эти стратегические нарративы нацелены.Это должно выходить за рамки здоровья человека и включать в себя множество участников из самых разных слоев общества, действия которых несут ответственность за причины, решения и судьбу УПП.

    Благодарности

    Мы благодарим профессора Стива Хинчлиффа за полезные обсуждения и общую междисциплинарную поддержку.

    Финансирование

    Работа поддержана следующим финансированием авторов. К. был поддержан внутренней премией GCRF за переводы Университета Эксетера («Содействие разумному использованию фармацевтических препаратов в аквакультуре Бангладеш, PI: Thornber»), финансируемой EPSRC («Глобальная награда GCRF за перевод исследований Университета Эксетера: устойчивые решения проблем продовольственной безопасности», ref: EP / T015268 / 1), грант BBSRC / NERC / GCRF («Повышение биобезопасности инкубатория для устойчивой креветочной индустрии в Бангладеш», исх: BB / T012579 / 1, PI: Tyler) и финансирование из Университета Эксетера Провост Fund («Создание общеуниверситетского сообщества по исследованию устойчивости к противомикробным препаратам», PI: Gaze).E.P. в настоящее время является со-заявителем двух проектов, связанных с УПП, финансируемых через GCRF («Единственные факторы, влияющие на УПП в сельских районах Таиланда», PI: Avison) и BBSRC / NERC-CONICET («Концептуальная основа для улучшения понимания УПП в системах животноводства для перевода в политику и практику »; PI: Gaze & Petroni).

    Заявления о прозрачности

    Отсутствуют для объявления.

    Заявление о доступе к данным

    Это обзорная статья, поэтому в ссылках цитируются все данные, лежащие в основе этой работы.

    Список литературы

    6

    Дагналл

    N

    ,

    Питьевая вода

    KG

    ,

    Denovan

    A

    и другие.

    Преодоление разрыва между стратегическими нарративами правительства Великобритании и общественным мнением / поведением: уроки COVID-19

    .

    Front Commun

    2020

    ;

    5

    :

    71

    .10

    Коллинз

    LC

    ,

    Jaspal

    R

    ,

    Нерлих

    Б.

    Кто или что участвует в обсуждении устойчивости к противомикробным препаратам в средствах массовой информации Великобритании (2010–2015 гг.)? Анализ транзитивности

    .

    Health (Лондон)

    2018

    ;

    22

    :

    521

    40

    .11

    Вернли

    D

    ,

    Jørgensen

    PS

    ,

    Морель

    CM

    и другие.

    Отображение дискуссии о глобальной политике в отношении устойчивости к противомикробным препаратам

    .

    BMJ Glob Health

    2017

    ;

    2

    :

    e000378

    ,13

    Иосса

    G

    ,

    Белый

    PCL.

    Природная среда: важное недостающее звено в национальных планах действий по борьбе с устойчивостью к противомикробным препаратам

    .

    Bull World Health Organ

    2018

    ;

    96

    :

    858

    60

    ,14

    Essack

    SY.

    Окружающая среда: забытый компонент триады One Health

    .

    Lancet Planet Health

    2018

    ;

    2

    :

    e238–9

    .15

    Каменщикова

    A

    ,

    Вольфс

    PFG

    ,

    Hoebe

    CJPA

    и другие.

    Антропоцентрические структуры One Health: анализ международных документов по политике устойчивости к противомикробным препаратам

    .

    Crit Public Health

    2021

    ;

    31

    :

    306

    15

    ,16

    Huttner

    B

    ,

    Саам

    М

    ,

    Moja

    L

    и другие.

    Как улучшить кампании по повышению осведомленности об антибиотиках: результаты глобального исследования ВОЗ

    .

    BMJ Glob Health

    2019

    ;

    4

    :

    e001239

    .17

    Будет

    CM.

    Проблема и продуктивность незнания: кампании общественного здравоохранения по рациональному использованию антибиотиков

    .

    Sociol Rev

    2020

    ;

    68

    :

    55

    76

    .20

    Метла

    A

    ,

    Кенни

    К

    ,

    Prainsack

    B

    и другие.

    Устойчивость к противомикробным препаратам как проблема ценностей? Виды с трех континентов

    .

    Crit Public Health

    2020

    ; DOI: 10.1080 / 09581596.2020.1725444.21

    Hinchliffe

    S

    ,

    Мясник

    A

    ,

    Рахман

    ММ.

    Проблема AMR: требовательная экономика, биологическая маржа и альтернативные стратегии совместного производства

    .

    Palgrave Commun

    2018

    ;

    4

    :

    142

    .22

    Рошфор

    D

    ,

    Кобб

    р.

    Политика определения политики: формирование повестки дня

    .

    University Press of Kansas

    ,

    1994

    ,23

    Walker

    S.

    Эффективная коммуникация по устойчивости к противомикробным препаратам: роль информационного дизайна

    .

    Palgrave Commun

    2019

    ;

    5

    :

    24

    .26

    Брюггер

    A

    ,

    Дессай

    S

    ,

    Девайн-Райт

    P

    и другие.

    Психологические реакции на близость изменения климата

    .

    Нат Клим Чанг

    2015

    ;

    5

    :

    1031

    7

    .27

    Collignon

    P

    ,

    Попка

    ДжДж

    ,

    Уолш

    TR

    и другие.

    Антропологические и социально-экономические факторы, способствующие глобальной устойчивости к противомикробным препаратам: одномерный и многомерный анализ

    .

    Lancet Planet Health

    2018

    ;

    2

    :

    e398–405

    .28

    Collignon

    P

    ,

    Беггс

    JJ.

    Социально-экономические факторы, способствующие распространению инфекции: факторы, вызывающие эпидемию устойчивости к противомикробным препаратам

    .

    Антибиотики (Базель)

    2019

    ;

    8

    :

    86

    ,29

    Суббиа

    M

    ,

    Кауделл

    MA

    ,

    Маир

    С

    и другие.

    Устойчивые к противомикробным препаратам кишечные бактерии широко распространены среди людей, животных и окружающей среды в Танзании

    .

    Нац Коммуна

    2020

    ;

    11

    :

    228

    .30

    Пирсон

    M

    ,

    Чандлер

    К.

    Знание устойчивости к противомикробным препаратам на практике: качественное исследование в нескольких странах с участием специалистов в области здравоохранения и здравоохранения

    .

    Glob Health Action

    2019

    ;

    12

    :

    15

    7

    .32

    Mendelson

    M

    ,

    Баласегарам

    М

    ,

    Джинкс

    Т

    и другие.

    Устойчивость к антибиотикам связана с языковыми проблемами

    .

    Природа

    2017

    ;

    545

    :

    23

    5

    .33

    Кроцков

    EM.

    Nomen est omen : почему нам нужно переименовать «устойчивость к противомикробным препаратам»

    .

    JAC Antimicrob Resist

    2020

    ;

    2

    :

    dlaa067

    .34

    Bushell

    S

    ,

    Buisson

    GS

    ,

    Рабочий

    М

    и другие.

    Стратегические нарративы в области изменения климата: к объединяющему нарративу для устранения пробелов в действиях по изменению климата

    .

    Energy Res Soc Sci

    2017

    ;

    28

    :

    39

    49

    .

    © Автор (ы) 2021. Опубликовано Oxford University Press от имени Британского общества антимикробной химиотерапии.

    Это статья в открытом доступе, распространяемая в соответствии с условиями лицензии Creative Commons Attribution License (http: // creativecommons.org / licenses / by / 4.0 /), который разрешает неограниченное повторное использование, распространение и воспроизведение на любом носителе при условии правильного цитирования оригинальной работы.

    Латинская Америка обсуждает роль сообщества в Национальных планах действий по УПП — 2021 — ReAct

    2021-10-28

    10–12 ноября Латиноамериканский саммит «Расширение возможностей сообществ в борьбе с устойчивостью к противомикробным препаратам в контексте COVID-19» будет организован ReAct Latin America совместно с Панамериканской организацией здравоохранения (ПАОЗ) и Консорциумом здравоохранения Международного университета Флориды.3 ноября устраивается предсаммитный день. Во время четырехдневного саммита главной темой является роль сообщества в реализации и поддержании Национальных планов действий по УПП. Обсуждения пройдут под эгидой One Health — взаимосвязи между здоровьем человека, здоровьем животных и здоровьем экосистем. Саммит будет переведен на английский язык (в прямом эфире).

    Региональное совещание Расширение прав и возможностей сообществ в борьбе с устойчивостью к противомикробным препаратам в контексте COVID-19 — это инициатива, направленная на привлечение общественных организаций, научных кругов и исследовательских центров, а также специалистов в области здравоохранения, сельского хозяйства и окружающей среды, работающих над проблемами, связанными с УПП — чтобы вместе мы могли искать конкретные, всеобъемлющие и устойчивые решения для борьбы с этой важной угрозой здоровью.

    На пути к планам действий сообщества

    Дни саммита связаны с необходимостью проанализировать Национальные планы действий по УПП и их реализацию в контексте COVID-19. Пандемия задержала реализацию этих планов в одних странах и их утверждение в других, что привело к значительным задержкам в разработке стратегий сдерживания устойчивости.

    Повестка дня 10-12 ноября

    Каждый день состоит из четырех частей:

    • Первая часть представляет собой открывающее художественное мероприятие.
    • Вторая часть состоит из лекции и центрального панельного форума, на котором темы дня обсуждаются в общих чертах.
    • Третья часть состоит из одновременных рабочих групп, каждая из которых будет заниматься определенной темой.
    • Четвертая часть — завершение дня культурно-художественным мероприятием.

    Саммит будет переведен на английский язык (в прямом эфире).

    10 ноября: пандемия, ускоренная COVID-19

    Между COVID-19 и устойчивостью к противомикробным препаратам существует множество взаимосвязей, начиная с резкого увеличения злоупотребления антибиотиками, вызванного пандемией.В этом контексте целью этого саммита является оценка состояния национальных планов действий в Латинской Америке в свете нынешней реальности с точки зрения гражданского общества.

    , 11 ноября: изучение реакции сообщества на COVID-19 для решения проблемы устойчивости к противомикробным препаратам

    COVID-19 ясно дал понять, что участие сообщества необходимо для решения любой проблемы общественного здравоохранения. Таким образом, цель этого семинара — изучить реакцию сообщества на COVID-19, чтобы в будущем использовать ее в стратегиях One Health.

    12 ноября: На пути к планам действий сообщества

    Чтобы бороться с устойчивостью к противомикробным препаратам, национальные планы по УПП необходимо претворить в жизнь на местном и общинном уровне. Следовательно, цель этого дня — предложить действия на уровне сообществ, которые дополняют национальные планы действий конкретными предложениями по их расширению.

    За дополнительной информацией обращайтесь:

    Kléver Calle
    Эл. Почта: [email protected]
    Телефон: +593 99 842 2157

    День перед саммитом 3 ноября — голоса сообществ

    В преддверии саммита используется подход «Единое здоровье», и цель этого дня — активизировать диалог о политике «Единое здоровье», одобренной Панамериканской организацией здравоохранения — это между голосами научного сообщества, коренных народов и общественных движений в регионе.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *