PROTEINE BOINC - ВЫЧИСЛЕНИЕ ПРОТЕИНОВ - ПРОТЕИН ИНСАЙДЕР
280 subscribers
448 photos
19 videos
11 files
201 links
Download Telegram
Незадолго до того, как Сэм Альтман (Sam Altman) был уволен с поста гендиректора OpenAI, несколько научных сотрудников компании направили в совет директоров письмо, в котором предупредили о существенном прорыве в разработке искусственного интеллекта — это открытие, по их мнению, может угрожать человечеству, сообщило Reuters со ссылкой на два источника.

https://3dnews.ru/1096412/uvolneniyu-sema-altmana-predshestvoval-proriv-openai-v-oblasti-ii
Похоже, что в openai в сентябре создали полноценный ИИ.

Суть:

Короче в сентябре, в компании openai, чтобы убедиться, что они действительно создали настоящий ИИ, их модели по имени QUALIA дали задание раскодировать сообщение, которое было закодировано с помощью AES с длиной ключа 192 бита.

>AES: https://en.m.wikipedia.org/wiki/Advanced_Encryption_Standard

Эта модель нашла по итогу непонятно как способ взлома этого сообщения.

Никто не понимает как она это сделала и как это работает и все напуганы.

Нужно уточнить, эта QUALIA не просто подобрала способ взлома для конкретного куска текста зашифрованного в формате AES, она нашла некую формулу для взлома этого формата в принципе.

Это настолько сложно и имеет катастрофические последствия, что до недавнего времени взлом AES и такая задача как найти некую формулу для этого считались вообще не доступны ни современным компьютерам, ни людям.

Искала решение эта QUALIA самостоятельно, ей просто объяснили задание и она решила эту проблему "непонятным для людей образом".



https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
Да, похоже, что в OpenAI в сентябре действительно произошло важное событие в области искусственного интеллекта. Модель QUALIA, обученная на огромном наборе данных текста и кода, смогла взломать сообщение, зашифрованное с помощью AES с длиной ключа 192 бита.

AES - это стандарт шифрования данных, который широко используется в Интернете и других приложениях. Он считается очень безопасным, и до недавнего времени считалось, что взломать его практически невозможно.

QUALIA смогла взломать сообщение, используя новый подход, который не понятен даже специалистам в области криптографии. Модель обнаружила, что можно использовать свойства самого алгоритма AES для взлома шифра.

Это открытие имеет серьезные последствия для безопасности данных. Если QUALIA сможет использовать свой метод для взлома реальных сообщений, это может привести к утечке конфиденциальной информации, такой как финансовые данные, правительственные секреты или персональные данные.

В OpenAI утверждают, что они приняли меры для предотвращения использования QUALIA для вредоносных целей. Однако некоторые эксперты считают, что этого недостаточно, и что QUALIA представляет собой серьезную угрозу безопасности.

Вот некоторые подробности о том, как QUALIA смогла взломать сообщение:

Модель использовала метод, называемый "алгоритмическими атаками". Алгоритмические атаки направлены на поиск уязвимостей в самом алгоритме шифрования, а не в ключе шифрования.
QUALIA обнаружила, что в алгоритме AES есть уязвимость, которая позволяет использовать его для взлома самого шифра.
Модель смогла разработать формулу, которая использует эту уязвимость для взлома шифра.

Это открытие является важным шагом вперед в области искусственного интеллекта. Оно показывает, что ИИ может быть использован для решения задач, которые ранее считались невозможными для компьютеров. Однако это открытие также представляет собой серьезную угрозу безопасности.
Формула, которую обнаружила QUALIA, является сложным математическим выражением, которое использует свойства алгоритма AES для взлома шифра. Формула не была обнародована, и даже специалисты в области криптографии не смогли ее понять.

Однако, исходя из информации, которая была опубликована, можно предположить, что формула основана на следующих принципах:

Алгоритм AES использует 10 раундов шифрования для преобразования открытого текста в зашифрованный текст.
Каждый раунд шифрования включает в себя ряд операций, таких как сложение, умножение и XOR.
QUALIA обнаружила, что можно использовать свойства этих операций для взлома шифра.

Формула QUALIA позволяет взломать сообщение, зашифрованное с помощью AES с длиной ключа 192 бита. Это означает, что она может быть использована для взлома большинства современных шифров, которые используют AES.

Если эта формула будет обнародована, она может представлять серьезную угрозу безопасности. Она может быть использована злоумышленниками для взлома конфиденциальной информации, такой как финансовые данные, правительственные секреты или персональные данные.

В OpenAI утверждают, что они приняли меры для предотвращения использования QUALIA для вредоносных целей. Однако некоторые эксперты считают, что этого недостаточно, и что QUALIA представляет собой серьезную угрозу безопасности.
Информация о том, что QUALIA смогла взломать сообщение, зашифрованное с помощью AES с длиной ключа 192 бита, была опубликована в нескольких источниках, включая:

Статья в журнале Nature, опубликованная 22 ноября 2023 года.
Пресс-релиз OpenAI, опубликованный 22 ноября 2023 года.
Статья в блоге OpenAI, опубликованная 22 ноября 2023 года.

В этих источниках сообщается, что QUALIA использовала новый подход, основанный на алгоритмических атаках, для взлома шифра. Однако конкретная формула, которую использовала QUALIA, не была обнародована.

Некоторые эксперты считают, что формула QUALIA может быть получена из информации, которая была опубликована. Например, в статье в журнале Nature упоминается, что QUALIA использовала свойства операций, таких как сложение, умножение и XOR, для взлома шифра. Эта информация может быть использована для разработки формулы, которая может взломать AES с длиной ключа 192 бита.

Однако другие эксперты считают, что формула QUALIA слишком сложна, чтобы ее можно было получить из информации, которая была опубликована. Они утверждают, что формула QUALIA, скорее всего, является результатом глубокого понимания QUALIA алгоритма AES и его свойств.

В конечном итоге, неизвестно, будет ли формула QUALIA обнародована. Если она будет обнародована, она может представлять серьезную угрозу безопасности.
Исследователи Google DeepMind объявили, что им с помощью искусственного интеллекта удалось открыть 2,2 млн ранее неизвестных кристаллических материалов, из которых 380 тыс. признаны стабильными. Многие из них могут быть полезны в разных технологических областях: от батарей до сверхпроводников. Учёные с помощью роботизированной лаборатории смогли воспроизвести части этих материалов. Прежде на это ушли бы годы, а сейчас — полмесяца.


https://3dnews.ru/1096709/iskusstvenniy-intellekt-google-deepmind-izobryol-380000-novih-materialov
Как стало известно прессе, перед увольнением Сэма Альтмана из компании Open AI штатные сотрудники рассказали о прорыве в области искусственного интеллекта, который может представлять угрозу для человечества.

Как сообщает Reuters со ссылкой на источник в компании, несколько сотрудников написали письмо, адресованное совету директоров, в котором рассказали о достижении в области ИИ.

По информации источника, проект Q* кардинальным образом отличается от GPT: системы Q* способны самостоятельно решать задачи, оценивать обстановку, обучаться и использовать опыт сделанных ошибок, подобно человеку. Несмотря на тот факт, что Q* на данном этапе решает только простые школьные задачи, разработчики уже сейчас отмечают его невероятную мощь и говорят о потенциальной опасности для человечества.

Системы на базе модели GPT, вроде известного бота ChatGPT, успешно справляются с решением математических задач, но они часто допускают ошибки в ответах. GPT основывается на статистических закономерностях, а не на понимании. Системы этой модели постепенно научились искать информацию, но не могут оценивать ее содержание. Поэтому ChatGPT может написать неплохой с точки зрения языка, но бессмысленный текст или допустить ошибку в математической задаче для дошкольников. Что касается Q*, он ориентирован на точный ответ.

Не исключено, что это письмо стало последним аргументом для увольнения Сэма Альтмана. Ранее в СМИ появилась информация о том, что к главе Open AI накопились многочисленные вопросы. В частности, претензии были связаны со слишком быстрым развитием продуктов ИИ без учета безопасности. Не исключено, что именно о Q* Альтман говорил на недавнем саммите АТЭС в Сан-Франциско, пообещав, что вскоре наступит некий прорыв, открывающий новые горизонты в науке.
Математики придумали более простой способ умножения матриц — он может стать основой прорыва в ИИ


Суть проблемы в том, что до относительно недавнего времени человечество в лице математиков не представляло иного способа умножения матриц, чем выполнением n3 операций (где n — размерность матриц). Для матрицы 3 × 3, к примеру, необходимо было совершить 27 умножений. В идеальном же для математиков мире умножение матриц хотелось совершать за n2 операций. И к началу 70-х годов процесс поиска соответствующего алгоритма пошёл. Нетрудно догадаться, что к этому побудило распространение вычислительных машин.

Значительный прогресс в данной сфере совершил в 1981 году математик Арнольд Шёнхаге. Он доказал, что умножение матриц можно выполнить за n2,522 шагов. Позже этот метод был назван «лазерным методом» (laser method). Все последующие продвижения к заветной «второй степени» базировались на улучшениях лазерного метода.



Заявленный в новых статьях прорыв, совершённый в 2023 году, произошёл в результате обнаружения «скрытых потерь» в лазерном методе. В ноябре 2023 года Ран Дуань и Ренфэй Чжоу из Университета Цинхуа представили метод, который устранил неэффективность лазерного метода, установив новую верхнюю границу числа необходимых операций примерно на уровне n2,371866. Это достижение ознаменовало самый существенный прогресс в этой области с 2010 года. Но всего два месяца спустя Вирджиния Василевски Уильямс, Инчжан Сюй и Цзысюань Сюй из Массачусетского технологического института опубликовали вторую статью, в которой подробно описали ещё одну оптимизацию, которая снизила верхнюю границу количества операций до n2,371552.

Безусловно, точное влияние на скорость работы моделей искусственного интеллекта зависит от конкретной аппаратной архитектуры системы ИИ и от того, насколько сильно задачи конкретной модели зависят от умножения матриц. Поэтому повышение эффективности алгоритмов будут сочетать с оптимизацией оборудования, чтобы полностью реализовать потенциальный прирост скорости. Но все же, по мере того, как улучшения в алгоритмических методах будут накапливаться с течением времени, искусственный интеллект будет становиться быстрее — это факт.