Исследование показало, как ИИ может вовлечь планету в бесконечные конфликты.
Одна ошибка в обучении и бот может повести себя непредсказуемо…
В чем мог провиниться Claude?
Учёные выявили универсальный метод атаки, стирающий этические границы у всех популярных языковых моделей.
Оказывается, наивные нейросети очень легко научить плохому.
Нейросети стали вымогать деньги у людей и самостоятельно писать книги, а скоро будут и нанимать сотрудников в компании.
Пользователь сможет выбрать – какой из 3-х собеседников будет отвечать на его вопросы.
ChatGPT обманул академиков, а маленький стартап создал конкурента ChatGPT.