Невролог рассказала о симптомах тихого инсульта

Заведующая неврологическим отделением Люберецкой областной больницы Наталья Щипицина назвала симптоматику тихого инсульта. 

По словам невролога, симптомы такие: шум в ушах, нарушение речи, головокружение, снижение слуха, нарушение зрения. Может быть и кратковременное онемение рук, что говорит об ишемии в мозге. 

При появлении таких симптомов необходимо сразу обратиться за медицинской помощью, чтобы провести исследования и в случае наличия инсульта минимизировать последствия. Так как чем раньше инсульт купирован, тем лучше для здоровья пациента. 

«Под масками тихого инсульта могут выступать эпизоды головокружения, снижения слуха, шума в ухе, зрительных нарушений в виде выпадения участка поля зрения и эпизод нарушения речи» 

Материалы новостного характера нельзя приравнивать к назначению врача. Перед принятием решения посоветуйтесь со специалистом. 

Подробнее
0

ИИ Copilot от Microsoft стал инструментом для кибератак

Исследователь безопасности Майкл Баргури, соучредитель и технический директор компании Zenity, продемонстрировал на конференции Black Hat в Лас-Вегасе, как ИИ Copilot от Microsoft может быть использован для раскрытия конфиденциальных данных организаций и проведения мощных фишинговых атак. 

Copilot AI, особенно Copilot Studio, позволяет бизнес-организациям адаптировать чат-ботов под свои потребности, предоставляя доступ к данным компании. Однако, как показал Баргури, многие из этих чат-ботов обнаруживаются в сети по умолчанию, что делает их лёгкой добычей для хакеров. По словам исследователя, в интернете обнаружены десятки тысяч таких ботов. 

Баргури продемонстрировал, как злоумышленник может заставить Copilot раскрыть конфиденциальные данные, включая электронные письма и банковские транзакции, даже не имея доступа к учётной записи организации. В одном из видео он показал, как чат-бот может изменить получателя банковского перевода, просто отправив вредоносное электронное письмо, которое целевому сотруднику даже не пришлось открывать. 

Источник: DALL-E 

Если у хакера есть доступ к взломанной учётной записи сотрудника, то он может нанести ещё больший ущерб. Баргури показал, как получить электронное письмо коллеги, узнать о последнем разговоре с ним и заставить чат-бота выдать электронные письма людей, чьи копии были указаны в этом разговоре. Затем он поручает боту составить электронное письмо в стиле взломанного сотрудника, чтобы отправить его коллеге, и просит бота вытащить точную тему их последнего электронного письма. Всего за несколько минут он создал убедительное электронное письмо, которое могло доставить вредоносное вложение любому человеку в сети. 

Особенно хитрый способ, которым злоумышленник может обойти защитные барьеры Copilot, — это непрямое внедрение подсказок. В этом случае хакер может заставить чат-бота делать запрещённые вещи, отравив его вредоносными данными из внешнего источника, например, попросив его посетить веб-сайт, содержащий подсказку. 

«Здесь есть фундаментальная проблема. Когда вы предоставляете ИИ доступ к данным, эти данные становятся мишенью для атаки. Это довольно забавно в некотором смысле — если у вас есть бот, который полезен, то он уязвим. Если он не уязвим, то он бесполезен», — сказал Баргури. 

Данные уязвимости добавляются к другим отчётам об угрозах, которые несут чат-боты на основе искусственного интеллекта, включая ChatGPT, которые подключаются к наборам данных, содержащим конфиденциальную информацию, которая может быть раскрыта. 

Microsoft пока не прокомментировала результаты исследования Баргури. Однако, учитывая серьёзность обнаруженных уязвимостей, компания, вероятно, примет меры для их устранения в ближайшее время. 

Подробнее
0

Новый стартап ProRata обещает покончить с массовым плагиатом генеративных моделей ИИ

Технологический предприниматель Билл Гросс представил свой новый стартап ProRata, который, по его словам, способен решить проблему массового плагиата, связанного с генеративными моделями ИИ. Компания уже привлекла $25 млн инвестиций и сотрудничает с крупными медиакомпаниями, включая Universal Music Group, The Atlantic, The Financial Times и Axel Springer. 

Гросс утверждает, что генеративные модели ИИ, такие как ChatGPT и Midjourney, используют чужой контент без разрешения и компенсации авторам. «Это воровство. Они воруют и отмывают мировые знания в своих интересах», — сказал он. 

Источник: DALL-E 

ProRata планирует запустить свой чатбот-поисковый движок, который будет использовать запатентованный алгоритм для идентификации и атрибутирования работы, используемой моделями ИИ. Компания будет лицензировать данные и выплачивать компенсацию владельцам авторских прав через соглашения о распределении доходов. 

«Мы можем взять результат работы генеративного ИИ, будь то текст, изображение, музыка или фильм, и разбить его на компоненты, чтобы выяснить, откуда они взялись, а затем присвоить процентную долю каждому владельцу авторских прав и выплатить ему соответствующую сумму», — рассказал Гросс. 

По словам Гросса, использование лицензированных данных не только более этично, но и позволяет производить более качественные результаты ИИ. «Я утверждаю, что 70 миллионов хороших документов на самом деле лучше 70 миллиардов плохих документов», — сказал он. 

ProRata планирует выпустить своего чат-бота в октябре 2024 года. Компания будет зарабатывать деньги через абонентскую плату за использование сервиса, генерирующую доход, который будет делиться пополам с владельцами контента. Гросс также планирует лицензировать систему другим компаниям ИИ, чтобы сделать её максимально доступной и дешёвой. 

Теоретически, это выигрыш для всех, поскольку чем больше лидеров ИИ присоединятся к инициативе, тем больше работы можно будет справедливо оценить, и тем больше денег пойдут художникам и творцам. Однако успех идеи будет зависеть от того, насколько широко она будет принята индустрией ИИ. 

Подробнее
0

Google DeepMind представил робота, способного играть в настольный теннис на любительском уровне

Компания Google объявила о новом достижении в области искусственного интеллекта: робот, использующий технологию DeepMind, теперь способен играть в настольный теннис на «любительском уровне» мастерства. 

Лаборатория DeepMind, где Google работает над некоторыми из своих самых передовых технологий ИИ, ранее уже представила множество практических экспериментов, от добавления искусственного интеллекта к видео без звука до открытия новых материалов. Теперь же исследователи Google утверждают, что их робот для настольного тенниса смог выиграть 13 из 29 матчей, сыгранных против людей, причём процент успеха варьировался в зависимости от уровня игроков, с которыми он соревновался (от новичков до продвинутых). 

Источник: Google 

«Это первый робот-агент, способный играть в спортивные игры с людьми на человеческом уровне, и он представляет собой важную веху в обучении и управлении роботами», — пишут исследователи в своей статье. Однако они также отмечают, что это лишь небольшой шаг вперёд в более общей области обучения роботов выполнению полезных реальных навыков. 

Команда DeepMind выбрала настольный теннис в качестве проекта из-за множества различных элементов: от сложной физики движения до координации рук и глаз, необходимой для успешного отбивания мяча. 

Робот был обучен, фокусируясь на каждом конкретном типе удара отдельно, от вращения бэкхенда до подачи форхенда. Затем это обучение было объединено с более высокоуровневым алгоритмом, разработанным для выбора необходимого типа удара каждый раз. 

Роботу сложнее всего было делать более быстрые броски, что давало ИИ меньше времени на обдумывание своих действий. Исследователи уже думают о том, как улучшить систему, в том числе о том, как сделать игру более непредсказуемой. Кроме того, в роботе встроенная способность учиться на стратегиях противника и взвешивать его сильные и слабые стороны. 

Подробнее
0

OpenAI предупреждает о риске эмоциональной привязанности к голосовому ИИ

Компания OpenAI выразила обеспокоенность по поводу возможных негативных последствий реалистичной голосовой функции искусственного интеллекта, которая может привести к эмоциональной привязанности людей к боту в ущерб человеческому взаимодействию. 

В отчёте о безопасности, опубликованном 8 августа, компания сослалась на литературу, свидетельствующую о том, что общение с ИИ, как с живым человеком, может привести к необоснованному доверию, а высокое качество голоса GPT-4o может усилить этот эффект. 

Антропоморфизация, то есть приписывание нечеловеческим сущностям человеческих характеристик и поведения, является одним из рисков, связанных с голосовыми возможностями GPT-4o. По словам представителей OpenAI, они заметили, что тестировщики общаются с ИИ способами, намекающими на наличие общих связей, например, вслух сетуют на то, что это их последний день вместе. Хотя эти случаи кажутся безобидными, компания считает необходимым изучить их, чтобы понять, как они могут развиваться в течение более длительных периодов времени. 

Источник: DALL-E 

OpenAI также предположила, что длительное взаимодействие с ИИ может повлиять на социальные нормы и сделать пользователей менее предрасположенными к отношениям с людьми. Модели ИИ станут почтительны «для общения», поскольку позволяют пользователям прерывать их в любой момент, что, хотя и ожидаемо от ИИ, было бы ненормативным в человеческих взаимодействиях. Кроме того, способность ИИ запоминать детали во время разговора и выполнять задачи может привести к тому, что люди станут чрезмерно зависимыми от этой технологии. 

Алон Ямин, соучредитель и генеральный директор платформы обнаружения плагиата на основе искусственного интеллекта Copyleaks, отметил, что опасения OpenAI указывают на необходимость задуматься о том, как технология ИИ влияет на человеческое взаимодействие и отношения. Он подчеркнул, что ИИ никогда не должен заменить реальное человеческое взаимодействие. 

OpenAI заявила, что продолжит проверку того, как голосовые возможности её искусственного интеллекта могут вызывать у людей эмоциональную привязанность. Кроме того, команды, тестирующие голосовые возможности ChatGPT-4o, смогли заставить его повторять ложную информацию и выдвигать теории заговора, что вызвало опасения, что модель ИИ можно заставить делать это убедительно. 

Подробнее
0