Сем Альтман розповів про втрату роботи через ШІ та трагедію з ексспівробітником OpenAI


Багато сучасних працівників служб підтримки, які працюють телефоном чи через комп’ютер, втратять роботу через ШІ. Таку заяву зробив CEO OpenAI Сем Альтман в інтерв’ю Такеру Карлсону.
Втім, існують професії, на які штучний інтелект вплине менше. У них важливі «людський контакт та глибокий зв’язок». Як приклад підприємець навів медсестер.
Щодо програмістів, Альтман вважає, що завдяки ШІ вони зможуть робити значно більше та отримувати вищу оплату.
«Виявилося, що світові потрібно значно більше програмістів і програмного забезпечення, ніж він міг створити раніше. Тож існує величезний незадоволений попит», — наголосив Альтман.
Стосовно найближчих 5–10 років CEO OpenAI не впевнений, як зміниться кількість робочих місць. Він припускає, що витіснення одних професій може стимулювати появу нових.
«Нещодавно я почув, що половина робочих місць не зникає, а радше трансформується кожні 75 років. Це своєрідний період напіврозпаду. […] Я можу уявити світ, де через 75 років половина людей займатиметься чимось новим, а решта — роботою, яка частково нагадує нинішні професії», — сказав він.
Карлсон торкнувся теми смерті Сухіра Баладжі, який чотири роки працював в OpenAI і був знайдений мертвим у грудні 2024 року. У жовтні дослідник опублікував есе, де критикував використання авторських даних у навчанні ШІ, ставлячи під сумнів їх відповідність «концепції добросовісного використання». Поліція не виявила слідів насильницької смерті, а судмедексперт визначив причиною суїцид.
Мати загиблого поставила під сумнів офіційну версію. За словами Карлсона, вона звинуватила Альтмана у смерті сина. Найнятий нею приватний детектив начебто виявив сліди боротьби у квартирі Баладжі. Також журналіст звернув увагу на перерізані дроти камери, замовлення їжі за кілька годин до інциденту, наявність перуки, повернення з відпустки з друзями та відсутність ознак суїцидальних нахилів.
«Він вчинив самогубство. Я так думаю», — сказав Альтман.
За словами підприємця, він багато часу витратив на аналіз інциденту й дійшов висновку, що «це схоже на самогубство». Серед аргументів він назвав купівлю пістолета, медичний висновок та другий звіт щодо траєкторії кулі.
«Спочатку, коли я отримав перші дані, мені здалося, що це не схоже на самогубство. […] Але коли з’явилися додаткові деталі, я подумав: “окей”», — зізнався він.
Також Карлсон запитав Альтмана про релігію, моральні принципи, їх формування у ChatGPT та питання приватності. Зокрема, журналіст поцікавився, чи дозволить OpenAI військовим використовувати ChatGPT для ухвалення рішень про вбивство людей.
«Якби я виробляв гвинтівки, я б багато думав про те, що їхнє основне призначення — вбивати, чи то людей, чи тварин. Якби я робив кухонні ножі, я все одно розумів би, що ними щороку вбиватимуть певну кількість людей. А ось у випадку з ChatGPT […] я усвідомлюю, що люди у наших збройних силах використовують його як порадника, щоб краще виконувати роботу», — відповів Альтман.
Нагадаємо, у липні Міністерство оборони США виділило контракти на суму до $200 млн компаніям Anthropic, Google, OpenAI та xAI для розробки рішень на основі ШІ у сфері безпеки.