Этика и подотчетность в сфере ИИ в юридической сфере: уроки дела Мата против АвианкиВасина Википедия

Новости с планеты OGLE-2018-BLG-0677
Что вы не только не знали, но и не хотели знать
Автор темы
wiki_en
Всего сообщений: 93439
Зарегистрирован: 16.01.2024
 Этика и подотчетность в сфере ИИ в юридической сфере: уроки дела Мата против Авианки

Сообщение wiki_en »

==== Фон ====
Дело Мата против Авианки, возникшее в результате судебного спора в Нью-Йорке, спора в Нью-Йорке, не только проливает свет на сложности внедрения ИИ в юридической профессии, но также подчеркивает решающую важность этики и подотчетности при принятии решений, принимаемых с помощью ИИ. -процессы изготовления.''Мата против Avianca, Inc.'', Ф. Супп. 3d, 22-cv-1461 (PKC), 2023 WL 4114965, at *2 (SDNY, 22 июня 2023 г.))Дело вращается вокруг утверждений о неправомерных действиях со стороны адвокатов истца, которые использовали программу искусственного интеллекта для юридических исследований. . В результате тревожного поворота событий инструмент искусственного интеллекта создал фиктивные дела и сфабриковал юридические цитаты, в том числе несуществующие прецеденты. Эта ошибка привела к серьезным последствиям: федеральный судья Нью-Йорка наложил санкции на адвокатов. за их халатное поведение. ''Мата против Avianca, Inc.'', F. Supp. 3d, 22-cv-1461 (PKC), 2023 WL 4114965, at *2 (SDNY, 22 июня 2023 г.))Адвокат должен понимать риски и преимущества технологии, используемой в связи с предоставлением юридических услуг. То, как будут применяться эти обязательства, будет зависеть от множества факторов, включая клиента, предмет, область практики, размер фирмы и сами инструменты: от бесплатных и легкодоступных до специально разработанных, собственных форматов.Практика Руководство по использованию генеративного искусственного интеллекта в юридической практике 2023 WL 11054756, at *1 (16 ноября 2023 г.)В основе этого дела лежит этическая ответственность юристов при использовании технологий искусственного интеллекта в своей деятельности. упражняться. Хотя инструменты ИИ обладают огромным потенциалом для оптимизации юридических исследований, повышения производительности и улучшения процесса принятия решений, они также привносят этические соображения, которые нельзя игнорировать. Неправильное использование или неверная интерпретация контента, созданного ИИ, может иметь далеко идущие последствия, подрывая целостность правовой системы и ставя под угрозу права сторон в судебном процессе.
----'''Раскрытие информации и подотчетность'''

Адвокату следует рассмотреть возможность раскрытия своему клиенту информации о том, что он намерен использовать генеративный искусственный интеллект для представления своих интересов, в том числе о том, как эта технология будет использоваться, а также о преимуществах и рисках такого использования.Практическое руководство по использованию генеративного искусственного интеллекта в Упражняться. of Law., 2023 WL 11054756, at *2 (16 ноября 2023 г.)

В Пенсильвании суд издал постоянно действующее постановление, которое требовало от каждого адвоката (или стороны, представляющей себя) раскрывать, использовал ли он или она генеративный искусственный интеллект («ИИ») при подготовке любой жалобы, ответа, ходатайства, записки. или другой документ, поданный в Суд, в том числе в переписке с Судом. Постоянный приказ по искусственному интеллекту, Окружной суд США Восточного округа Пенсильвании, https://www.paed.uscourts.gov/sites/pae ... Order%20Re% 20Artificial%20Intelligence%206.6.pdf (последнее посещение 23 апреля 2024 г.]).Суд постановил, что адвокат должен в ясном и ясном фактическом заявлении раскрыть, что генеративный ИИ использовался в любых способ подготовки документации или корреспонденции и удостоверить, что каждая ссылка на закон или запись в документации была проверена на достоверность и точность. В Огайо суд штата запретил адвокатам использовать искусственный интеллект при подготовке каких-либо документов для подачи в суд.Окружной суд США Северного округа Огайо, Бойко, Использование генеративного искусственного интеллекта, Постановление суда № 4703 (2024 г.). )

Дело Маты выдвигает на первый план проблему подотчетности при использовании ИИ. Столкнувшись с обнаружением сфабрикованного содержания, реакция адвокатов характеризовалась задержкой и уклонением, что усугубляло серьезность их неправомерных действий. Решение судьи наложить санкции на адвокатов подчеркивает принцип, согласно которому юристы должны нести ответственность за свои действия, особенно когда речь идет об искусственном интеллекте. Подобно тому, как юрист должен прилагать разумные усилия для обеспечения того, чтобы в юридической фирме существовала политика, позволяющая разумно гарантировать, что поведение помощника, не являющегося юристом, совместимо с собственными профессиональными обязанностями юриста, юрист должен делать следующее: то же самое и с генеративным ИИ. Юристы, которые полагаются на генеративный искусственный интеллект в исследованиях, составлении документов, общении и приеме клиентов, рискуют многими из тех же опасностей, что и те, кто полагался на неопытных или слишком самоуверенных помощников, не являющихся юристами.Комитет коллегии адвокатов штата Флорида по профессиональным вопросам Этика, Флорида Eth. Оп. 2024 год.

===== Конфиденциальность и конфиденциальность клиентов =====
Юристы могут использовать генеративный искусственный интеллект («ИИ») в юридической практике, но должны защищать конфиденциальность информации о клиентах, предоставлять точные и компетентные услуги, избегать неправомерной практики выставления счетов и соблюдать применимые ограничения на рекламу юристов.The American Коллегия адвокатов [ABA], Центр профессиональной ответственности, Типовые правила, 2013. http://www.americanbar.org/groups/profe ... htmlЮристы должны обеспечить защиту конфиденциальности информации о клиентах. при использовании генеративного искусственного интеллекта путем изучения политики программы в отношении хранения данных, совместного использования данных и самообучения. Юристы по-прежнему несут ответственность за результаты своей работы и профессиональное суждение и должны разрабатывать политику и практику для проверки того, что использование генеративного искусственного интеллекта соответствует этическим обязательствам юриста. Юристы могут использовать генеративный искусственный интеллект («ИИ») в юридической практике, но должны защищать конфиденциальность информации о клиентах, изучая политику программы в отношении хранения данных, обмена данными и самообучения.

===== Точность и надежность =====
Одним из основных этических обязательств практикующих юристов является обеспечение точности и достоверности информации, которую они предоставляют суду. В деле Мата против Авианки адвокаты не выполнили свою обязанность проверить подлинность контента, созданного ИИ, прежде чем представить его в качестве доказательства. Эта ошибка в судебном решении не только поставила под угрозу честность судебного разбирательства, но и подорвала доверие к юридической профессии в целом. На Гавайях Федеральный суд распорядился, что если какой-либо адвокат или доверенная сторона подает в суд какие-либо документы или материалы, полученные из непроверенного источника, этот адвокат или доверенная сторона должны одновременно с этим материалом подать заявление с заголовком «Доверие к непроверенному источнику». «что: (1) сообщает суду, что адвокат или сторона, выступающая в защиту, полагались на один или несколько непроверенных источников; и (2) проверяет, что адвокат или доверенная сторона подтвердили, что любые такие материалы не являются вымышленными.Общий приказ 23-1, В отношении использования непроверенных источников, Приказ HI R USDCT 23-1 (Округ США) Суд округа Гавайи, вступает в силу 14 ноября 2023 г.)Важно, чтобы адвокаты проверяли информацию в документах, которые будут представлены в суд, чтобы гарантировать ее точность и надежность.

====== Заключение ======
Дело Мата против Авианки подчеркивает необходимость в надежных этических принципах и стандартах, регулирующих использование ИИ в юридической профессии. Юридические организации и регулирующие органы должны разработать всеобъемлющие рамки, описывающие лучшие практики использования ИИ, включая рекомендации по проверке контента, созданного ИИ, проведению комплексной проверки и соблюдению профессиональных стандартов поведения. В заключение, дело Мата против Авианки служит отрезвляющим напоминанием об этических проблемах, связанных с внедрением технологий искусственного интеллекта в юридическую профессию. Хотя ИИ обладает огромным потенциалом для улучшения юридической практики, его внедрение должно сопровождаться твердой приверженностью этике, добросовестности и подотчетности. Придерживаясь этих принципов, юристы смогут использовать преимущества ИИ, сохраняя при этом целостность правовой системы и обеспечивая справедливость для всех вовлеченных сторон.
----'''Список ссылок'''
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ, комментарий, отзыв

Изменение регистра текста: 
Смайлики
:) :( :oops: :chelo: :roll: :wink: :muza: :sorry: :angel: :read: *x) :clever:
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Этика и подотчетность в сфере ИИ в юридической сфере: уроки дела Мата против Авианки
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    50 Просмотры
    Последнее сообщение wiki_en
  • Мата Мата Храм
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    16 Просмотры
    Последнее сообщение wiki_en
  • Список выпускников Бруклинской юридической школы
    wiki_en » » в форуме Васина Википедия
    0 Ответы
    71 Просмотры
    Последнее сообщение wiki_en
  • Сотрудники юридической службы (=полицейские юристы)
    wiki_de » » в форуме Васина Википедия
    0 Ответы
    45 Просмотры
    Последнее сообщение wiki_de
  • Социальная экология (этика)
    Гость » » в форуме Васина Википедия
    0 Ответы
    58 Просмотры
    Последнее сообщение Гость