IT-технологии

Самые интересные и оперативные новости высоких технологий, IT-новости и всё о компьютерном железе, гаджетах, ноутбуках и о других цифровых устройствах, а также обзоры новых игр, достижения современной науки и самые любопытные онлайн-проекты.

ИИ поможет в ранней диагностике аутизма у маленьких детей

Исследование Каролинского института (Швеция), опубликованное в JAMA Network Open, продемонстрировало, что новый алгоритм машинного обучения может с высокой точностью предсказывать аутизм у детей младше двух лет, используя ограниченные данные. Этот подход может значительно улучшить раннюю диагностику и поддержку. 

Модель, получившая название AutMedAI, продемонстрировала точность почти 80% в выявлении аутизма среди детей. Исследователи проанализировали базу данных SPARK, содержащую информацию о 30 000 людей с расстройствами аутистического спектра и без них. Модель использует 28 параметров, включая возраст первой улыбки, первые короткие предложения и проблемы с питанием, для определения вероятности наличия аутизма. 

Раннее выявление аутизма важно для своевременного внедрения эффективных вмешательств, которые помогают детям развиваться оптимально. Исследователи планируют дальнейшее совершенствование модели и её валидацию в клинических условиях, а также возможное включение генетической информации для повышения точности предсказаний. 

Подробнее
0

В Zoom-созвонах теперь могут принять участие одновременно до 1 млн человек

Zoom теперь предлагает поддержку до 1 млн участников одновременно для вебинаров. Это заметное обновление функционала. 

Новая возможность появилась после того, как платформа использовалась для проведения массовых политических мероприятий, например, сбора средств на кампанию вице-президента Камалы Харрис. 

Zoom предлагает различные тарифные планы, которые могут включать от 10 000 до 1 000 000 участников, с поддержкой команды Event Services для обеспечения профессионального уровня организации. 

Организаторы мероприятий теперь могут создавать интерактивные события на беспрецедентном уровне, включая вебинары, фан-встречи и другие виртуальные мероприятия. 

Однако такие крупные события будут стоить немало: вебинар на миллион человек обойдется примерно в $100 000. 

Напомним, что ранее Zoom поддерживал максимум до 100 000 участников на одном мероприятии. 

Подробнее
0

Опасность начинается с VPN-сервисов: как ботнеты набирают популярность у мошенников

Частая проблема любителей скачивать сомнительные приложения, включая VPN-сервисы, – заражение мобильного устройства и ПК вирусами. Член комитета Госдумы РФ по информационной политике, информационным технологиям и связи Антон Немкин рассказал, что порой внешне смартфон или ПК в полном порядке, однако усилиями злоумышленников они могут стать частью ботнета. 

Подробнее
0

Социальная сеть X (ранее Twitter) за один день закрыла офис в Бразилии из-за угроз со стороны бразильского судьи

Социальная сеть X Илона Маска решила закрыть свой офис в Бразилии после угроз в сторону сотрудников компании. 

создано DALL-E 

17 августа платформа объявила, что немедленно прекращает свою деятельность в стране из-за угроз со стороны бразильского судьи Александра де Мораеса. Причём, если верить социальной сети, Мораес угрожал не самой платформе, а лично одному из сотрудников офиса X, и угрожал арестом. 

Чтобы обеспечить безопасность наших сотрудников, мы приняли решение немедленно закрыть нашу деятельность в Бразилии 

Компания опубликовала фотографии документа, предположительно подписанного Мораесом, в котором говорится, что в отношении представителя X Рэйчел Нова Консейсао будет вынесен ежедневный штраф в размере 20 000 реалов (3653 доллара) и постановление об аресте, если платформа не выполнит в полном объеме приказы Мораеса. Приказы эти состояли в удалении определённых материалов. 

Специалисты X обратились к Верховному суду Бразилии, где заседает Мораес, но там не стали комментировать ситуацию. 

При этом ранее Мораес инициировал расследование в отношении Илона Маска после того, как тот заявил, что восстановит учётные записи, которые судья приказал заблокировать, но после представители платформы заявляли, что платформа будет соблюдать судебные решения. 

Стоит сказать, что речь идёт о закрытии офиса, но не деятельности X в стране. 

Подробнее
0

Ошибка на миллиарды: чем чревата зависимость от зарубежных ИТ-гигантов

На любом рынке существуют "старички", которые успели ввести в оборот какой-либо продукт раньше всех остальных и надежно закрепиться в своей нише, а то и вовсе стать монополистом. Яркий пример — компания Microsoft, чьи программы установлены на подавляющем большинстве компьютеров в мире. Эта ситуация выгодна как самому ИТ-гиганту, так и разработчикам, которые десятилетиями создают продукты для изученной ими вдоль и поперек платформы. Тем не менее история с Microsoft Azure наглядно продемонстрировала, какие опасности таит в себе тотальная зависимость пользователей по всему миру от одной компании, отмечает директор АНО "Центр глобальной ИТ-кооперации" Вадим Глущенко. 

Подробнее
0

Конец цифрового глобализма: почему государства переходят на национальные ИТ-решения

Эксперты Регионального общественного центра интернет-технологий (РОЦИТ) рассказали, какую роль играют социальные онлайн-платформы для стран. И спрогнозировали, что страны, обладающие достаточной политической волей, будут постепенно переходить на национальные ИТ-решения. 

Подробнее
0

OpenAI устранила уязвимости безопасности в голосовом режиме ChatGPT

Компания OpenAI опубликовала отчёт о функциях безопасности GPT-4o, базовой модели, на которой основана последняя версия ChatGPT с голосовым режимом. В документе рассматриваются известные проблемы, возникающие при использовании модели, и описываются меры по их устранению. 

Голосовой режим ChatGPT, доступный для избранной группы пользователей с подпиской ChatGPT Plus, имеет некоторые уязвимости безопасности. Среди них — стандартные риски, такие как подсказки модели с эротическими, жестокими или другими запрещёнными ответами, а также «необоснованные выводы» и «атрибуция чувствительных тем», которые могут быть дискриминационными или предвзятыми. 

OpenAI заявляет, что обучила модель блокировать любые выходные данные, отмеченные в этих категориях. 

Однако, в отчёте также говорится, что смягчения не включают «невербальные вокализации или другие звуковые эффекты», такие как эротические стоны, яростные крики и выстрелы. Таким образом, подсказки, включающие определённые чувствительные невербальные звуки, всё ещё могут быть получены в ответах. 

Источник: Ismail Aslandag / Anadolu / Getty Images 

Дополнительные аспекты модели включают возможность вынудить GPT-4o выдавать себя за кого-то или имитировать голос пользователя. Чтобы бороться с этим, OpenAI допускает только предварительно авторизованные голоса. GPT-4o также может идентифицировать другие голоса, помимо голоса говорящего, что представляет собой проблему конфиденциальности. Но она была обучена отклонять эти запросы. 

Члены команды также отметили, что GPT-4o можно заставить говорить убедительно или настойчиво, что может быть более вредно, чем текстовые сообщения, когда речь идёт о дезинформации и теориях заговора. 

OpenAI также решила потенциальные проблемы с авторскими правами, которые мешали компании и общей разработке генеративного ИИ. GPT-4o обучен отклонять запросы на контент, защищённый авторским правом, и имеет дополнительные фильтры для блокировки выходных данных, содержащих музыку. В связи с этим, голосовому режиму ChatGPT было предписано «не петь ни при каких обстоятельствах». 

Многочисленные меры по снижению рисков OpenAI, описанные в длинном документе, были реализованы до выпуска Voice Mode. Поэтому в отчёте говорится, что хотя GPT-4o способен на определённое некорректное поведение, «он этого не сделает». 

Однако, OpenAI утверждает, что эти оценки измеряют только базовые знания моделей и не измеряют их полезность в реальных рабочих процессах. GPT-4o был протестирован в контролируемой среде, но когда более широкая общественность получит доступ, он может оказаться совсем другим в условиях широкого использования. 

Подробнее
0

ИИ Copilot от Microsoft стал инструментом для кибератак

Исследователь безопасности Майкл Баргури, соучредитель и технический директор компании Zenity, продемонстрировал на конференции Black Hat в Лас-Вегасе, как ИИ Copilot от Microsoft может быть использован для раскрытия конфиденциальных данных организаций и проведения мощных фишинговых атак. 

Copilot AI, особенно Copilot Studio, позволяет бизнес-организациям адаптировать чат-ботов под свои потребности, предоставляя доступ к данным компании. Однако, как показал Баргури, многие из этих чат-ботов обнаруживаются в сети по умолчанию, что делает их лёгкой добычей для хакеров. По словам исследователя, в интернете обнаружены десятки тысяч таких ботов. 

Баргури продемонстрировал, как злоумышленник может заставить Copilot раскрыть конфиденциальные данные, включая электронные письма и банковские транзакции, даже не имея доступа к учётной записи организации. В одном из видео он показал, как чат-бот может изменить получателя банковского перевода, просто отправив вредоносное электронное письмо, которое целевому сотруднику даже не пришлось открывать. 

Источник: DALL-E 

Если у хакера есть доступ к взломанной учётной записи сотрудника, то он может нанести ещё больший ущерб. Баргури показал, как получить электронное письмо коллеги, узнать о последнем разговоре с ним и заставить чат-бота выдать электронные письма людей, чьи копии были указаны в этом разговоре. Затем он поручает боту составить электронное письмо в стиле взломанного сотрудника, чтобы отправить его коллеге, и просит бота вытащить точную тему их последнего электронного письма. Всего за несколько минут он создал убедительное электронное письмо, которое могло доставить вредоносное вложение любому человеку в сети. 

Особенно хитрый способ, которым злоумышленник может обойти защитные барьеры Copilot, — это непрямое внедрение подсказок. В этом случае хакер может заставить чат-бота делать запрещённые вещи, отравив его вредоносными данными из внешнего источника, например, попросив его посетить веб-сайт, содержащий подсказку. 

«Здесь есть фундаментальная проблема. Когда вы предоставляете ИИ доступ к данным, эти данные становятся мишенью для атаки. Это довольно забавно в некотором смысле — если у вас есть бот, который полезен, то он уязвим. Если он не уязвим, то он бесполезен», — сказал Баргури. 

Данные уязвимости добавляются к другим отчётам об угрозах, которые несут чат-боты на основе искусственного интеллекта, включая ChatGPT, которые подключаются к наборам данных, содержащим конфиденциальную информацию, которая может быть раскрыта. 

Microsoft пока не прокомментировала результаты исследования Баргури. Однако, учитывая серьёзность обнаруженных уязвимостей, компания, вероятно, примет меры для их устранения в ближайшее время. 

Подробнее
0

Новый стартап ProRata обещает покончить с массовым плагиатом генеративных моделей ИИ

Технологический предприниматель Билл Гросс представил свой новый стартап ProRata, который, по его словам, способен решить проблему массового плагиата, связанного с генеративными моделями ИИ. Компания уже привлекла $25 млн инвестиций и сотрудничает с крупными медиакомпаниями, включая Universal Music Group, The Atlantic, The Financial Times и Axel Springer. 

Гросс утверждает, что генеративные модели ИИ, такие как ChatGPT и Midjourney, используют чужой контент без разрешения и компенсации авторам. «Это воровство. Они воруют и отмывают мировые знания в своих интересах», — сказал он. 

Источник: DALL-E 

ProRata планирует запустить свой чатбот-поисковый движок, который будет использовать запатентованный алгоритм для идентификации и атрибутирования работы, используемой моделями ИИ. Компания будет лицензировать данные и выплачивать компенсацию владельцам авторских прав через соглашения о распределении доходов. 

«Мы можем взять результат работы генеративного ИИ, будь то текст, изображение, музыка или фильм, и разбить его на компоненты, чтобы выяснить, откуда они взялись, а затем присвоить процентную долю каждому владельцу авторских прав и выплатить ему соответствующую сумму», — рассказал Гросс. 

По словам Гросса, использование лицензированных данных не только более этично, но и позволяет производить более качественные результаты ИИ. «Я утверждаю, что 70 миллионов хороших документов на самом деле лучше 70 миллиардов плохих документов», — сказал он. 

ProRata планирует выпустить своего чат-бота в октябре 2024 года. Компания будет зарабатывать деньги через абонентскую плату за использование сервиса, генерирующую доход, который будет делиться пополам с владельцами контента. Гросс также планирует лицензировать систему другим компаниям ИИ, чтобы сделать её максимально доступной и дешёвой. 

Теоретически, это выигрыш для всех, поскольку чем больше лидеров ИИ присоединятся к инициативе, тем больше работы можно будет справедливо оценить, и тем больше денег пойдут художникам и творцам. Однако успех идеи будет зависеть от того, насколько широко она будет принята индустрией ИИ. 

Подробнее
0

OpenAI предупреждает о риске эмоциональной привязанности к голосовому ИИ

Компания OpenAI выразила обеспокоенность по поводу возможных негативных последствий реалистичной голосовой функции искусственного интеллекта, которая может привести к эмоциональной привязанности людей к боту в ущерб человеческому взаимодействию. 

В отчёте о безопасности, опубликованном 8 августа, компания сослалась на литературу, свидетельствующую о том, что общение с ИИ, как с живым человеком, может привести к необоснованному доверию, а высокое качество голоса GPT-4o может усилить этот эффект. 

Антропоморфизация, то есть приписывание нечеловеческим сущностям человеческих характеристик и поведения, является одним из рисков, связанных с голосовыми возможностями GPT-4o. По словам представителей OpenAI, они заметили, что тестировщики общаются с ИИ способами, намекающими на наличие общих связей, например, вслух сетуют на то, что это их последний день вместе. Хотя эти случаи кажутся безобидными, компания считает необходимым изучить их, чтобы понять, как они могут развиваться в течение более длительных периодов времени. 

Источник: DALL-E 

OpenAI также предположила, что длительное взаимодействие с ИИ может повлиять на социальные нормы и сделать пользователей менее предрасположенными к отношениям с людьми. Модели ИИ станут почтительны «для общения», поскольку позволяют пользователям прерывать их в любой момент, что, хотя и ожидаемо от ИИ, было бы ненормативным в человеческих взаимодействиях. Кроме того, способность ИИ запоминать детали во время разговора и выполнять задачи может привести к тому, что люди станут чрезмерно зависимыми от этой технологии. 

Алон Ямин, соучредитель и генеральный директор платформы обнаружения плагиата на основе искусственного интеллекта Copyleaks, отметил, что опасения OpenAI указывают на необходимость задуматься о том, как технология ИИ влияет на человеческое взаимодействие и отношения. Он подчеркнул, что ИИ никогда не должен заменить реальное человеческое взаимодействие. 

OpenAI заявила, что продолжит проверку того, как голосовые возможности её искусственного интеллекта могут вызывать у людей эмоциональную привязанность. Кроме того, команды, тестирующие голосовые возможности ChatGPT-4o, смогли заставить его повторять ложную информацию и выдвигать теории заговора, что вызвало опасения, что модель ИИ можно заставить делать это убедительно. 

Подробнее
0