Стэнфордские исследователи успешно протестировали первую в истории автономную систему навигации роя спутников

Команда исследователей из Лаборатории космических сближений Стэнфордского университета совершила прорыв в области распределённой автономности в космосе, успешно проведя первое испытание на орбите прототипа системы, способной управлять роем спутников, используя только визуальную информацию, передаваемую по беспроводной сети. 

Тест Starling Formation-Flying Optical Experiment (StarFOX) представляет собой значительный шаг вперёд в развитии технологии роя спутников, которая может обеспечить большую точность, манёвренность и автономность по сравнению с традиционными крупными и дорогостоящими отдельными космическими спутниками. 

«Это знаменательная работа и кульминация 11 лет усилий моей лаборатории, которая была основана с целью превзойти современное состояние дел и практику в области распределённой автономности в космосе. Starling — это первая в истории демонстрация автономного роя спутников», — сказала Симона Д'Амико, доцент кафедры аэронавтики и астронавтики и старший автор исследования, опубликованного на сервере препринтов arXiv. 

Источник: DALL-E 

В тесте StarFOX команда успешно управляла четырьмя малыми спутниками, работающими в тандеме, используя только визуальную информацию, собранную с бортовых камер, для расчёта их траекторий. Исследователи представили свои выводы из первоначального теста StarFOX на собрании экспертов по роевым спутникам на конференции Small Satellite Conference в Логане (штат Юта). 

Д'Амико описала эту задачу как то, что двигала её команду более десятилетия. «Наша команда выступала за распредёленные космические системы с момента основания лаборатории. Теперь это стало мейнстримом. NASA, Министерство обороны, Космические силы США - все поняли ценность множественных активов в координации для достижения целей, которые в противном случае было бы невозможно или очень трудно достичь с помощью одного космического аппарата. Преимущества включают в себя улучшенную точность, покрытие, гибкость, надёжность и потенциально новые цели, которые ещё не придуманы», — сказала она. 

Надёжная навигация роя представляет собой большую сложность, поскольку текущие системы полагаются на Глобальную навигационную спутниковую систему (GNSS), требующую частого контакта с наземными системами. За пределами орбиты Земли есть Deep Space Network, но она относительно медленная и не легко масштабируется для будущих начинаний. Более того, ни одна из систем не может помочь спутникам избегать того, что Д'Амико называет «несотрудничающими объектами», такими как космический мусор, который может вывести спутник из строя. 

Рою нужна автономная навигационная система, которая обеспечивает высокую степень автономности и надёжности, сказала Д'Амико. Такие системы также становятся более привлекательными благодаря минимальным техническим требованиям и финансовым затратам, современным миниатюрным камерам и другого оборудования. Камеры, используемые в тесте StarFOX, являются проверенными, относительно недорогими звёздными трекерами, которые сегодня размещены практически на любом спутнике. 

Четыре космических аппарата Swarm во время интеграции и тестирования в NASA Ames. Источник: NASA / Dominic Hart 

«По своей сути, навигация не требует дополнительного оборудования даже при использовании на небольших и недорогих космических аппаратах. А обмен визуальной информацией между членами роя обеспечивает новую распределённую оптическую навигационную возможность», — сказала Д'Амико. 

StarFOX объединяет визуальные измерения с отдельных камер, установленных на каждом спутнике в рое. Известные звёзды используются в качестве ориентира для пеленгации спутников. Затем эти данные обрабатываются на борту с помощью физических моделей для оценки положения и скорости спутников относительно вращающейся планеты, — в данном случае Земли, — но Луна, Марс или другие планетарные объекты также могут быть загружены в логику навигации. 

StarFOX использует систему измерения абсолютной и относительной траектории Space Rendezvous Lab (ARTMS), которая интегрирует три новых алгоритма космической робототехники. Алгоритм обработки изображений обнаруживает и отслеживает несколько целей на изображениях и вычисляет углы направления цели — углы, под которыми объекты, включая космический мусор, движутся друг к другу или отдаляются друг от друга. Затем алгоритм определения орбиты оценивает орбиту каждого спутника по этим углам. И последнее: алгоритм определения последовательной орбиты уточняет траектории роя с помощью обработки новых изображений с течением времени, чтобы снабжать ими автономные алгоритмы наведения, управления и предотвращения столкновений. 

Эта технология автоматической навигации роя спутников может открыть новые возможности для будущих космических миссий, обеспечивая более эффективные, надёжные и экономичные решения для исследования космоса и наблюдения за Землёй. 

Подробнее
0

OpenAI устранила уязвимости безопасности в голосовом режиме ChatGPT

Компания OpenAI опубликовала отчёт о функциях безопасности GPT-4o, базовой модели, на которой основана последняя версия ChatGPT с голосовым режимом. В документе рассматриваются известные проблемы, возникающие при использовании модели, и описываются меры по их устранению. 

Голосовой режим ChatGPT, доступный для избранной группы пользователей с подпиской ChatGPT Plus, имеет некоторые уязвимости безопасности. Среди них — стандартные риски, такие как подсказки модели с эротическими, жестокими или другими запрещёнными ответами, а также «необоснованные выводы» и «атрибуция чувствительных тем», которые могут быть дискриминационными или предвзятыми. 

OpenAI заявляет, что обучила модель блокировать любые выходные данные, отмеченные в этих категориях. 

Однако, в отчёте также говорится, что смягчения не включают «невербальные вокализации или другие звуковые эффекты», такие как эротические стоны, яростные крики и выстрелы. Таким образом, подсказки, включающие определённые чувствительные невербальные звуки, всё ещё могут быть получены в ответах. 

Источник: Ismail Aslandag / Anadolu / Getty Images 

Дополнительные аспекты модели включают возможность вынудить GPT-4o выдавать себя за кого-то или имитировать голос пользователя. Чтобы бороться с этим, OpenAI допускает только предварительно авторизованные голоса. GPT-4o также может идентифицировать другие голоса, помимо голоса говорящего, что представляет собой проблему конфиденциальности. Но она была обучена отклонять эти запросы. 

Члены команды также отметили, что GPT-4o можно заставить говорить убедительно или настойчиво, что может быть более вредно, чем текстовые сообщения, когда речь идёт о дезинформации и теориях заговора. 

OpenAI также решила потенциальные проблемы с авторскими правами, которые мешали компании и общей разработке генеративного ИИ. GPT-4o обучен отклонять запросы на контент, защищённый авторским правом, и имеет дополнительные фильтры для блокировки выходных данных, содержащих музыку. В связи с этим, голосовому режиму ChatGPT было предписано «не петь ни при каких обстоятельствах». 

Многочисленные меры по снижению рисков OpenAI, описанные в длинном документе, были реализованы до выпуска Voice Mode. Поэтому в отчёте говорится, что хотя GPT-4o способен на определённое некорректное поведение, «он этого не сделает». 

Однако, OpenAI утверждает, что эти оценки измеряют только базовые знания моделей и не измеряют их полезность в реальных рабочих процессах. GPT-4o был протестирован в контролируемой среде, но когда более широкая общественность получит доступ, он может оказаться совсем другим в условиях широкого использования. 

Подробнее
0

Невролог рассказала о симптомах тихого инсульта

Заведующая неврологическим отделением Люберецкой областной больницы Наталья Щипицина назвала симптоматику тихого инсульта. 

По словам невролога, симптомы такие: шум в ушах, нарушение речи, головокружение, снижение слуха, нарушение зрения. Может быть и кратковременное онемение рук, что говорит об ишемии в мозге. 

При появлении таких симптомов необходимо сразу обратиться за медицинской помощью, чтобы провести исследования и в случае наличия инсульта минимизировать последствия. Так как чем раньше инсульт купирован, тем лучше для здоровья пациента. 

«Под масками тихого инсульта могут выступать эпизоды головокружения, снижения слуха, шума в ухе, зрительных нарушений в виде выпадения участка поля зрения и эпизод нарушения речи» 

Материалы новостного характера нельзя приравнивать к назначению врача. Перед принятием решения посоветуйтесь со специалистом. 

Подробнее
0

ИИ Copilot от Microsoft стал инструментом для кибератак

Исследователь безопасности Майкл Баргури, соучредитель и технический директор компании Zenity, продемонстрировал на конференции Black Hat в Лас-Вегасе, как ИИ Copilot от Microsoft может быть использован для раскрытия конфиденциальных данных организаций и проведения мощных фишинговых атак. 

Copilot AI, особенно Copilot Studio, позволяет бизнес-организациям адаптировать чат-ботов под свои потребности, предоставляя доступ к данным компании. Однако, как показал Баргури, многие из этих чат-ботов обнаруживаются в сети по умолчанию, что делает их лёгкой добычей для хакеров. По словам исследователя, в интернете обнаружены десятки тысяч таких ботов. 

Баргури продемонстрировал, как злоумышленник может заставить Copilot раскрыть конфиденциальные данные, включая электронные письма и банковские транзакции, даже не имея доступа к учётной записи организации. В одном из видео он показал, как чат-бот может изменить получателя банковского перевода, просто отправив вредоносное электронное письмо, которое целевому сотруднику даже не пришлось открывать. 

Источник: DALL-E 

Если у хакера есть доступ к взломанной учётной записи сотрудника, то он может нанести ещё больший ущерб. Баргури показал, как получить электронное письмо коллеги, узнать о последнем разговоре с ним и заставить чат-бота выдать электронные письма людей, чьи копии были указаны в этом разговоре. Затем он поручает боту составить электронное письмо в стиле взломанного сотрудника, чтобы отправить его коллеге, и просит бота вытащить точную тему их последнего электронного письма. Всего за несколько минут он создал убедительное электронное письмо, которое могло доставить вредоносное вложение любому человеку в сети. 

Особенно хитрый способ, которым злоумышленник может обойти защитные барьеры Copilot, — это непрямое внедрение подсказок. В этом случае хакер может заставить чат-бота делать запрещённые вещи, отравив его вредоносными данными из внешнего источника, например, попросив его посетить веб-сайт, содержащий подсказку. 

«Здесь есть фундаментальная проблема. Когда вы предоставляете ИИ доступ к данным, эти данные становятся мишенью для атаки. Это довольно забавно в некотором смысле — если у вас есть бот, который полезен, то он уязвим. Если он не уязвим, то он бесполезен», — сказал Баргури. 

Данные уязвимости добавляются к другим отчётам об угрозах, которые несут чат-боты на основе искусственного интеллекта, включая ChatGPT, которые подключаются к наборам данных, содержащим конфиденциальную информацию, которая может быть раскрыта. 

Microsoft пока не прокомментировала результаты исследования Баргури. Однако, учитывая серьёзность обнаруженных уязвимостей, компания, вероятно, примет меры для их устранения в ближайшее время. 

Подробнее
0

Новый стартап ProRata обещает покончить с массовым плагиатом генеративных моделей ИИ

Технологический предприниматель Билл Гросс представил свой новый стартап ProRata, который, по его словам, способен решить проблему массового плагиата, связанного с генеративными моделями ИИ. Компания уже привлекла $25 млн инвестиций и сотрудничает с крупными медиакомпаниями, включая Universal Music Group, The Atlantic, The Financial Times и Axel Springer. 

Гросс утверждает, что генеративные модели ИИ, такие как ChatGPT и Midjourney, используют чужой контент без разрешения и компенсации авторам. «Это воровство. Они воруют и отмывают мировые знания в своих интересах», — сказал он. 

Источник: DALL-E 

ProRata планирует запустить свой чатбот-поисковый движок, который будет использовать запатентованный алгоритм для идентификации и атрибутирования работы, используемой моделями ИИ. Компания будет лицензировать данные и выплачивать компенсацию владельцам авторских прав через соглашения о распределении доходов. 

«Мы можем взять результат работы генеративного ИИ, будь то текст, изображение, музыка или фильм, и разбить его на компоненты, чтобы выяснить, откуда они взялись, а затем присвоить процентную долю каждому владельцу авторских прав и выплатить ему соответствующую сумму», — рассказал Гросс. 

По словам Гросса, использование лицензированных данных не только более этично, но и позволяет производить более качественные результаты ИИ. «Я утверждаю, что 70 миллионов хороших документов на самом деле лучше 70 миллиардов плохих документов», — сказал он. 

ProRata планирует выпустить своего чат-бота в октябре 2024 года. Компания будет зарабатывать деньги через абонентскую плату за использование сервиса, генерирующую доход, который будет делиться пополам с владельцами контента. Гросс также планирует лицензировать систему другим компаниям ИИ, чтобы сделать её максимально доступной и дешёвой. 

Теоретически, это выигрыш для всех, поскольку чем больше лидеров ИИ присоединятся к инициативе, тем больше работы можно будет справедливо оценить, и тем больше денег пойдут художникам и творцам. Однако успех идеи будет зависеть от того, насколько широко она будет принята индустрией ИИ. 

Подробнее
0

Google DeepMind представил робота, способного играть в настольный теннис на любительском уровне

Компания Google объявила о новом достижении в области искусственного интеллекта: робот, использующий технологию DeepMind, теперь способен играть в настольный теннис на «любительском уровне» мастерства. 

Лаборатория DeepMind, где Google работает над некоторыми из своих самых передовых технологий ИИ, ранее уже представила множество практических экспериментов, от добавления искусственного интеллекта к видео без звука до открытия новых материалов. Теперь же исследователи Google утверждают, что их робот для настольного тенниса смог выиграть 13 из 29 матчей, сыгранных против людей, причём процент успеха варьировался в зависимости от уровня игроков, с которыми он соревновался (от новичков до продвинутых). 

Источник: Google 

«Это первый робот-агент, способный играть в спортивные игры с людьми на человеческом уровне, и он представляет собой важную веху в обучении и управлении роботами», — пишут исследователи в своей статье. Однако они также отмечают, что это лишь небольшой шаг вперёд в более общей области обучения роботов выполнению полезных реальных навыков. 

Команда DeepMind выбрала настольный теннис в качестве проекта из-за множества различных элементов: от сложной физики движения до координации рук и глаз, необходимой для успешного отбивания мяча. 

Робот был обучен, фокусируясь на каждом конкретном типе удара отдельно, от вращения бэкхенда до подачи форхенда. Затем это обучение было объединено с более высокоуровневым алгоритмом, разработанным для выбора необходимого типа удара каждый раз. 

Роботу сложнее всего было делать более быстрые броски, что давало ИИ меньше времени на обдумывание своих действий. Исследователи уже думают о том, как улучшить систему, в том числе о том, как сделать игру более непредсказуемой. Кроме того, в роботе встроенная способность учиться на стратегиях противника и взвешивать его сильные и слабые стороны. 

Подробнее
0

OpenAI предупреждает о риске эмоциональной привязанности к голосовому ИИ

Компания OpenAI выразила обеспокоенность по поводу возможных негативных последствий реалистичной голосовой функции искусственного интеллекта, которая может привести к эмоциональной привязанности людей к боту в ущерб человеческому взаимодействию. 

В отчёте о безопасности, опубликованном 8 августа, компания сослалась на литературу, свидетельствующую о том, что общение с ИИ, как с живым человеком, может привести к необоснованному доверию, а высокое качество голоса GPT-4o может усилить этот эффект. 

Антропоморфизация, то есть приписывание нечеловеческим сущностям человеческих характеристик и поведения, является одним из рисков, связанных с голосовыми возможностями GPT-4o. По словам представителей OpenAI, они заметили, что тестировщики общаются с ИИ способами, намекающими на наличие общих связей, например, вслух сетуют на то, что это их последний день вместе. Хотя эти случаи кажутся безобидными, компания считает необходимым изучить их, чтобы понять, как они могут развиваться в течение более длительных периодов времени. 

Источник: DALL-E 

OpenAI также предположила, что длительное взаимодействие с ИИ может повлиять на социальные нормы и сделать пользователей менее предрасположенными к отношениям с людьми. Модели ИИ станут почтительны «для общения», поскольку позволяют пользователям прерывать их в любой момент, что, хотя и ожидаемо от ИИ, было бы ненормативным в человеческих взаимодействиях. Кроме того, способность ИИ запоминать детали во время разговора и выполнять задачи может привести к тому, что люди станут чрезмерно зависимыми от этой технологии. 

Алон Ямин, соучредитель и генеральный директор платформы обнаружения плагиата на основе искусственного интеллекта Copyleaks, отметил, что опасения OpenAI указывают на необходимость задуматься о том, как технология ИИ влияет на человеческое взаимодействие и отношения. Он подчеркнул, что ИИ никогда не должен заменить реальное человеческое взаимодействие. 

OpenAI заявила, что продолжит проверку того, как голосовые возможности её искусственного интеллекта могут вызывать у людей эмоциональную привязанность. Кроме того, команды, тестирующие голосовые возможности ChatGPT-4o, смогли заставить его повторять ложную информацию и выдвигать теории заговора, что вызвало опасения, что модель ИИ можно заставить делать это убедительно. 

Подробнее
0