Технологичният прогрес доведе до появата на редица „умни" машини, които непрекъснато повишават интелектуалните си способности. Те изпълняват все по-сложни и по-отговорни дейности в цивилни и военни дейности. Затова специалистът по етика от Йейл Уендъл Уолък и философът от университета в Индиана Колин Алън дефинираха шест правила за роботите, които да намалят опасността, която може да произтече от тях. Ето какво гласят те.
Първо правило. Не доверявайте на робота задачи, които са свързани със значителни рискове за обществото. С други думи, машините трябва да бъдат предсказуеми, а възможността да катастрофа да е сведена до минимум.
Второ правило. Не давайте в никакъв случай на роботите оръжие или възможност да управляват въоръжение. Но за съжаление не може да се предотврати появата на военни „умни" машини. Вече са разработени въоръжени полуавтономни роботизирани установки и безпилотни летателни апарати.
Трето правило. Трябва да се съблюдават трите закона на роботиката на Айзък Азимов. Знаменитите постулати на фантаста осигуряват безопасността на съществуване на машините в човешкото общество, избягването на нещастните случаи и злоупотреба от страна на роботите с техните възможности. Проблем е, че Азимов все пак е писател и законите му не са поставени на научна основа.
Четвърто правило. Програмирането им става с отчитане на цял ред условия и принципи. Един от тях е този за максимално полезното действие – т.е. да от всички постъпки, да избират тези, които носят полза на най-много хора. Но, ако се спази пунктуално този принцип, роботът може да принесе в жертва един човек, за да спаси живота на петима.
Пето правило. Постоянно обучение на роботите. Това би позволило на машините да изменят своето поведение с времето, да анализират собствените си действия и да избират правилните решения. За момента съвременната наука не позволява обаче действително мислещ и анализиращ робот.
Шесто правило. Вграждане в роботите основен набор от емоции. Такава функционалност е крайно необходима за интеграцията им в човешкото общество. Машините би трябвало да разпознават настроенията на хората, за да могат да избират адекватна стратегия на поведение. Трябва да припомним, че вече се работи върху направата на роботи, разпознаващи емоциите по жестове и мимики.
Първо правило. Не доверявайте на робота задачи, които са свързани със значителни рискове за обществото. С други думи, машините трябва да бъдат предсказуеми, а възможността да катастрофа да е сведена до минимум.
Второ правило. Не давайте в никакъв случай на роботите оръжие или възможност да управляват въоръжение. Но за съжаление не може да се предотврати появата на военни „умни" машини. Вече са разработени въоръжени полуавтономни роботизирани установки и безпилотни летателни апарати.
Трето правило. Трябва да се съблюдават трите закона на роботиката на Айзък Азимов. Знаменитите постулати на фантаста осигуряват безопасността на съществуване на машините в човешкото общество, избягването на нещастните случаи и злоупотреба от страна на роботите с техните възможности. Проблем е, че Азимов все пак е писател и законите му не са поставени на научна основа.
Четвърто правило. Програмирането им става с отчитане на цял ред условия и принципи. Един от тях е този за максимално полезното действие – т.е. да от всички постъпки, да избират тези, които носят полза на най-много хора. Но, ако се спази пунктуално този принцип, роботът може да принесе в жертва един човек, за да спаси живота на петима.
Пето правило. Постоянно обучение на роботите. Това би позволило на машините да изменят своето поведение с времето, да анализират собствените си действия и да избират правилните решения. За момента съвременната наука не позволява обаче действително мислещ и анализиращ робот.
Шесто правило. Вграждане в роботите основен набор от емоции. Такава функционалност е крайно необходима за интеграцията им в човешкото общество. Машините би трябвало да разпознават настроенията на хората, за да могат да избират адекватна стратегия на поведение. Трябва да припомним, че вече се работи върху направата на роботи, разпознаващи емоциите по жестове и мимики.
Източник: hicomm.bg