Результати пошуку для "LLM"

AI-компанія OpenRouter, заснована спільно з OpenSea, залучила 40 мільйонів доларів фінансування, лідери якого - a16z, з оцінкою в 500 мільйонів доларів.

Gate News bot повідомлення, OpenRouter, який очолює колишній співзасновник OpenSea, завершив раунд фінансування на 40 мільйонів доларів у вигляді насіння та раунд A, щоб прискорити розробку своєї платформи агрегації великих мовних моделей. Це фінансування було очолено Andreessen Horowitz (a16z) та Menlo Ventures, а також взяли участь Sequoia Capital та відомі інвест-ангели галузі. За інформацією, наданою Wall Street Journal, компанія наразі має оцінку в 500 мільйонів доларів.
Більше

AI платформа OpenRouter, заснована колишнім співзасновником OpenSea, завершила фінансування раунду A на 40 мільйонів доларів, з провідними інвесторами a16z.

Платформа ринку AI моделей OpenRouter нещодавно оголосила про завершення фінансування в розмірі 40 мільйонів доларів США, оцінка становить близько 500 мільйонів доларів США. Фінансування буде використано для розробки продукту та розширення підтримки підприємств. З моменту запуску залучила понад 1 мільйон розробників, витрати на річне висновлення швидко зростають, клієнти охоплюють як стартапи, так і транснаціональні компанії.
Більше

Дослідження: тривала залежність від великих мовних моделей, таких як ChatGPT, може зашкодити когнітивним здібностям

ChainCatcher News: Команда дослідників з Массачусетського технологічного інституту, коледжу Веллслі та Массачусетського коледжу мистецтв нещодавно виявила, що довгострокова залежність від великих мовних моделей (LLM), таких як ChatGPT, може погіршити когнітивні здібності. Дослідження показало, що учасники, які писали за допомогою штучного інтелекту, мали лише вдвічі менше альфа-зв'язків у своєму мозку, ніж незалежні мислителі (42 проти 79), а 83,3% не могли точно цитувати власні тексти. Дослідники називають цей феномен когнітивним боргом – зменшення тягаря мислення в короткостроковій перспективі, але призводить до зниження критичного мислення та креативності в довгостроковій перспективі.
Більше

$FLOCK отримав понад 52% зростання після оголошення про стратегічне співробітництво з qwen

Gate.io Новини
Більше
  • 1

Moonshot запускає велику мовну модель ($LLM)

Odaily Планета Денний Звіт За офіційною інформацією Moonshot вводить Large Language Model ($LLM), поточна ринкова капіталізація становить 9470 мільйонів доларів, об'єм за 24 години складає 1.542
Більше
  • 1

Moonshot запускає AI-концепт Meme-монету LLM на ланцюгу Solana

MoonshotListing виявив, що на ланцюгу Solana з'явився концепт Meme-монети LLM з штучним інтелектом, з ринковою капіталізацією 96 мільйонів доларів США і зниженням на 9,7% за 24 години. Ідея LLM була натхненна логотипом ai16z, BlockBeats нагадує користувачам, що Meme-монети майже не мають практичного застосування, і їхня ціна має велике коливання, тому інвестиції потребують обережності.
Більше
  • 1
  • 2

Dar Open Network оголосив про випуск двох AI-фреймворків: DeAI Multi-Agent Framework та aiNFT

DAR Open Network оголошує про випуск двох AI фреймворків, DeAI багатоагентний фреймворк та aiНевзаємозамінний токен. DeAI багатоагентний фреймворк - це платформа для розробки, розгортання та координації співпраці AI агентів, тоді як aiНевзаємозамінний токен - це інноваційний інструмент, що дозволяє власникам Невзаємозамінних токенів розкрити потенціал свого цифрового активу за допомогою налаштування AI агентів та динамічно взаємодіяти з користувачами.
Більше

Initia: Rena виступає і отримує фінансування у розмірі 3,3 мільйона доларів у Pre-Seed раунді, запускає TrustEE дані AppChain

Протокол взаємодії Initia Rollup, під назвою Rena, випустився та отримав 3,3 мільйона доларів у попередньому етапі фінансування Pre-Seed. Rena використовує TrustEE Data AppChain, яке допомагає розробникам будувати перевірені, захищені конфіденційність та масштабовані AI-додатки на будь-якому Блоку блокчейну. Rena прагне забезпечити користувачам права володіння та перевіряемості AI, сприяючи розвитку децентралізованого фінансування, ігрових/соціальних додатків та багатомодального LLM.
Більше

Партнер a16z: продукти LLM мають потенціал стати руйнівником у сфері пошукового бізнесу

Партнер A16z Andrew Chen запитався у соціальних мережах, чи має OpenAI потужний потенціал для бізнесу з урахуванням вражаючого масштабу ChatGPT, а також обговорив питання про середню кількість пошуків на користувача та доход з одного показу при використанні моделі монетизації рекламою. Він вважає, що продукт з базою користувачів, схожою на Firefox-браузер, може заробляти приблизно 1 млрд доларів на рік в піку свого розвитку, якщо ChatGPT буде безкоштовним, кількість активних користувачів може значно зрости. Водночас він зазначив, що продукти, які використовують великомасштабні мовні моделі (LLM), мають потенціал стати руйнівниками пошукової індустрії.
Більше
  • 3
  • 1

JPMorgan Chase запустив внутрішній AI-інструмент для аналітиків

BlockBeats News, 26 липня, як повідомляє Cointelegraph, інвестиційно-банківський гігант JPMorgan Chase запускає внутрішню версію ChatGPT-подібного генеративного продукту штучного інтелекту - LLM Suite, який в основному використовується для допомоги аналітикам в написанні, генерації ідей і узагальненні документів. JPMorgan Chase & Co. заявила, що LLM Suite є «продуктом, схожим на ChatGPT», який може працювати в тандемі з іншими внутрішніми системами, які обробляють конфіденційну фінансову інформацію, щоб підвищити «продуктивність загального призначення».
Більше

Arweave AO планує випустити у блокчейні відкриту велику мовну модель

Arweave запускає програму "AI on AO" з метою виведення будь-якої моделі штучного інтелекту (не лише великих мовних моделей) на ланцюг, використовуючи постійне зберігання на ланцюзі для побудови децентралізованої, недовіриливої мережі GPU, що надає надійні, ефективні та економічні обчислювальні можливості для навчання та мислення штучного інтелекту.
Більше
Odaily Planet Daily News Lightning Labs запустила нові інструменти штучного інтелекту Bitcoin, розроблені, щоб дозволити розробникам легко інтегрувати Bitcoin і Lightning Network у свої програми штучного інтелекту.Набір включає в себе LLM Agent BitcoinTools, який дозволяє розробникам створювати агенти AI, які можуть зберігати баланс Bitcoin , надсилати/отримувати біткойни в Lightning Network і взаємодіяти з демонами Lightning Network. Крім того, цей випуск включає зворотний проксі-сервер Aperture, який підтримує Lightning Node Connect і забезпечує динамічне ціноутворення кінцевої точки API. Ці інструменти підвищать доступність і функціональність інфраструктури ШІ. (Блок)
Babbitt News, 9 червня, згідно зі звітом Chosun Ilbo, було підтверджено, що Samsung повністю розробляє власну велику мовну модель штучного інтелекту (LLM) для внутрішнього використання. Цей продукт схожий на ChatGPT. Він розроблявся з червня і зараз під керівництвом Науково-дослідного інституту Samsung. Джерела повідомили, що майже всі обчислювальні ресурси GPU Samsung були інвестовані в масштабне навчання моделі.Компанія планує завершити розробку першої версії LLM протягом двох місяців. Зараз Samsung планує використовувати цю велику модель для резюме документів, розробки програмного забезпечення та мовного перекладу, і ще не вирішила, чи надавати продукт споживачам.
  • 2

Дослідники Apple: основні AI моделі все ще не можуть досягти очікуваного рівня міркувань AGI

У статті, опублікованій у червні під назвою «Ілюзія мислення», дослідники Apple зазначили, що провідні моделі AI (AGI) все ще мають труднощі з міркуванням, і в результаті розвивається загальна (AGI) штучного інтелекту Попереду ще довгий шлях. У статті вказується, що останні оновлення основних (LLM) великих мовних моделей штучного інтелекту, таких як ChatGPT від OpenAI та Claude від Anthropic, включали великі моделі висновків (LRM), але їхні основні функції, Розширені можливості та обмеження «все ще не до кінця вивчені». Поточна оцінка зосереджена насамперед на встановлених орієнтирах з математики та кодування, «наголошуючи на точності остаточної відповіді». Однак дослідники заявили, що оцінка не дає уявлення про можливості міркування моделей штучного інтелекту, що різко контрастує з очікуванням, що загальний штучний інтелект буде досягнуто всього за кілька років.
Більше
  • 1

AI у блокчейні торгівельний двигун Brian оголосив про припинення, засновник критикує VC за перевагу спекулятивним Токенам

Проект розпізнавання намірів AI Brian, що виник на хакатоні ETHPrague 2023 року, оголосив про своє припинення через втрату ринкових переваг і проблеми з фінансуванням, критикуючи VC за надмірну увагу до TGE та спекуляцій, ігноруючи фактичний прогрес. Команда планувала запустити спеціальну модель і Токен для Web3, але спекуляції в галузі та проблеми з витратами призвели до провалу проекту.
Більше

Агентство: У 2024 році загальний дохід 10 найбільших світових компаній, що займаються розробкою мікросхем, збільшиться на 49% у річному обчисленні, а на NVIDIA припадатиме половина частки

У 2024 році загальний дохід десяти найбільших світових компаній з розробки мікросхем становитиме близько 249,8 мільярда доларів США, щорічний темп зростання становитиме 49%, з яких NVIDIA зросте на цілих 125%. Прогноз на 2025 рік показує, що передові процеси виробництва напівпровідників сприятимуть зростанню обчислювальних потужностей штучного інтелекту, а великі мовні моделі продовжуватимуть з'являтися, а периферійні пристрої штучного інтелекту стануть наступною хвилею драйверів зростання напівпровідників.
Більше

SCIHUB Спільнота розробляє архітектуру SCAI для наукових AI-агентів з метою надання дослідникам більш точних і надійних інструментів

BlockBeats News, 13 січня, згідно з офіційними новинами, спільнота SCIHUB розробила нову архітектуру AI Agents SCAI (SCientific AI), маючи на меті надати науковим дослідникам більш точні та надійні інструменти Метою SCAI є вирішення феномену «галюцинацій» LLM у відповідях на наукові питання, щоб ШІ
Більше
  • 4
  • 2

Користувач Reddit стверджує, що ChatGPT базується на історичних повідомленнях та ініціює розмову.

OpenAI оголосила про випуск більш інтелектуальної великої мовної моделі ChatGPT, яка наділена здатністю мислити та відповідати після обдумування. Модель може виводити інформацію про перший день користувача в школі, враховуючи попередні розмови, та вказувати, що це одна з нових покращених функцій. Нова модель очікується мати швидший час відгуку та незалежну здатність до глибокого дослідження.
Більше
  • 8
  • 2
Відповідно до звіту 36 Krypton від 5 червня, компанія з обробки даних штучного інтелекту «Integer Intelligence» нещодавно завершила десятки мільйонів раундів фінансування Pre A. Yishang Capital є ексклюзивним радником з фінансування. Цей раунд фінансування в основному використовується для ітеративного оновлення інтелектуальної платформи обробки даних (платформа ABAVA). Нова платформа ABAVA буде інтегрувати великі моделі AI + малі моделі для досягнення ефективного автоматичного анотування даних. Крім того, цілочисельний інтелект також буде інтегрувати можливості служби даних RLHF (human feedback reinforcement learning) для надання рішень для розробки та ітерації великих мовних моделей (LLM).

Розробник ядра Gaia Харіш Котра відвідав саміт ETHDenver 2025 і поділився думками про LLM з відкритим вихідним кодом

Gaia — це децентралізований веб-проект, який спрямований на надання безпечних, стійких до цензури та монетизованих проксі-сервісів зі штучним інтелектом. Його основний розробник, Харіш Котра, поділився темою запуску LLM з відкритим вихідним кодом на ETHDenver 2025. GaiaNet побудований на периферійних обчислювальних вузлах, керованих приватними особами та компаніями, призначених для об'єднання знань та навичок кожного, одночасно захищаючи конфіденційність.
Більше

Vitalik: Ринок прогнозів може зробити нотатки X спільноти швидшими завдяки AI

Співзасновник Ethereum заявив, що штучний інтелект та технологія ринку прогнозів можуть прискорити швидкість створення комунітарних нотаток на соціальних медіа платформі. Комунітарні нотатки - це функція, що дозволяє спільноті додавати контекстову інформацію до повідомлень, які можуть бути вводними. За допомогою ринку прогнозів люди можуть використовувати великі мовні моделі штучного інтелекту та роботів, щоб визначити, чи варто підписуватися на повідомлення.
Більше
  • 1

Фонд True Grid оголосив про надання пожертви проекту відкритого коду штучного інтелекту vLLM

Odaily Планета Денна звіт Заява фонду ZhenFund про надання пожертви проекту відкритого коду штучного інтелекту vLLM. Фонд ZhenFund заявив, що пожертва спрямована на поширення технології штучного інтелекту, щоб більше людей могли скористатися цим. Розроблений командою з 3 осіб з Каліфорнійського університету в Берклі, vLLM — це фреймворк для прискорення висновків великих моделей з відкритим вихідним кодом, який підтримує понад 30 найновіших відкритих джерел, включаючи Mistral, Llama та інші
Більше
Листопаду 21-го Lenovo представила першу в світі наступну покоління Copilot+PC - Lenovo Yoga Slim 7x та Lenovo ThinkPad T14s Gen 6, обидві з високопродуктивним процесором Qualcomm Snapdragon XElite. За даними компанії, ці два пристрої, що працюють на новому процесорі Snapdragon XElite, оснащені 12-ядерним процесором Oryon CPU, графічним процесором Adreno та спеціалізованим процесором Hexagon NPU. Завдяки новітнім функціям від Microsoft та Copilot+, користувачі зможуть використовувати функцію великомасштабного мовного моделювання (LLM) навіть без підключення до Інтернету.
Як повідомляє Interface News 27 червня, компанія з баз даних MongoDB оголосила, що співпрацюватиме з Google Cloud, щоб прискорити використання розробниками генеративного штучного інтелекту та розробку нових програм. Розробники можуть скористатися MongoDB Atlas та інтеграцією з Google Cloud Vertex AI Large Language Model (LLM) для прискорення розробки програмного забезпечення.
  • 2
Сьогодні IT House опублікував статтю, в якій стверджує, що обсяг сліпої купи моделі ШІ насправді не обов’язково кращий. Це більше залежить від якості навчальних даних. Microsoft нещодавно випустила мовну модель phi-1 з 1,3 мільярда параметрів , використовуючи навчання високоякісного набору даних «на рівні підручника», кажуть, що «фактичний ефект кращий, ніж GPT 3.5 зі 100 мільярдами параметрів». Модель базується на архітектурі Transformer, і команда Microsoft використовувала дані «підручника» з Інтернету та «логічно точний вміст», оброблений за допомогою GPT-3.5, а також вісім графічних процесорів Nvidia A100, щоб завершити навчання лише за 4 години. дні . Команда Microsoft заявила, що замість збільшення кількості параметрів моделі покращення якості набору даних для навчання моделі може підвищити точність і ефективність моделі. Тому вони використовували високоякісні дані для навчання моделі phi-1. . У тесті показник phi-1 досяг 50,6%, що краще, ніж GPT-3,5 (47%) зі 175 мільярдами параметрів. Microsoft також заявила, що phi-1 буде відкритим вихідним кодом у HuggingFace наступного разу, і це не перший раз, коли Microsoft розробляє невеликий LLM.До цього вони створили 13 мільярдів параметрів Orca, який був навчений за допомогою синтетичних даних GPT-4. Продуктивність також краща, ніж у ChatGPT.
Як повідомляє Securities Times, 20 червня Jinshan Office провів щорічний брифінг щодо ефективності роботи за 2022 рік. Стосовно розробки продуктів, пов’язаних зі штучним інтелектом, Цзоу Тао, голова правління компанії, сказав, що ШІ є однією з важливих продуктових стратегій Kingsoft Office. Наразі компанія обирає «ходити на двох ногах» і спочатку вирішить співпрацювати з постачальниками технічних послуг, пов’язаними з AIGC та LLM, і проводити дослідження та розробку продукту через їхні технічні повноваження; водночас вони також є продовжуючи контактувати з деякими чудовими компаніями-початківцями. Крім того, поступово буде запущено функції, пов’язані з WPSAI, що, як очікується, повністю розширить можливості всієї лінійки продуктів компанії.
  • 1
Як повідомляє Businesskorea, згідно з південнокорейськими джерелами, підрозділ Device Solutions (DS), який відповідає за напівпровідниковий бізнес Samsung Electronics, розробляє власну велику мовну модель (LLM) GPT-3.5 або вище.Налаштований штучний інтелект для підвищення продуктивності та роботи. ефективність. Повідомляється, що базову послугу сервіс запустить уже в грудні цього року, а в лютому наступного року надасть професійні послуги пошуку, включаючи інформацію про компанії та дані.

Соціальний ланцюг Cyber запустить модель шифрування штучного інтелекту Cyber.AI

Соціальна платформа CYBER запускає модель шифрування AI Cyber.AI, яка забезпечує кращу підтримку інтелектуальним AI-агентам, аналізуючи мільйони дописів і облікових записів X, використовуючи дані шифрування з понад 200 тисяч проектів. Крім того, Cyber.AI співпрацює з @elizaOSai, дозволяючи розробникам отримати доступ до спеціалізованої бази знань з шифрування. Ця модель будує асистента з шифрування та базову модель шифрування, які надають точніші запити та інформацію щодо шифрування.
Більше
  • 2
  • 1

Allora розробникам вдалося здійснити інтелектуалізоване управління торгівлею за допомогою DeepSeek AI Agent

Золоті фінанси повідомили, що команда розробників Allora забезпечила оцінку торгів LLM з використанням DeepSeek як AI-агента, а також взаємодіює на платформі Hyperliquid мережі Allora.
Більше

某Адреса早期买入价值6.3万美元的LLM,当前Позиція价值升至130万美元

BlockBeats повідомляє, що 9 січня за даними Arkham, після того, як певна Адреса, яка починається з DxjmH, вийшла на LLM, протягом 3 годин було придбано LLM на суму 6,3 тис. доларів США, а Позиція вже піднялася до 130
Більше
  • 6
  • 3

Деякий трейдер купує 2300 монет LLM та заробляє понад 500 000 доларів США

Odaily Звіт про планету: За даними Onchain Lens, який спостерігає за роботою, певний трейдер купив 2300 монет LLM з більш ніж 50 відсотковим прибутком.
Більше
  • 2
  • 1

Деякий трейдер заробив 1,887 разів більше на ранньому відкритті позицій по LLM протягом 4 годин

BlockBeats повідомляє, що 8 січня за даними Onchain Lens, один трейдер заробив 500 000 доларів, придбавши LLM на ранніх етапах і за чотири години. Раніше цей Адреса придбав 23 млн монет LLM на PumpFun за ціною 1,37 SOL (приблизно 269 доларів). Після значного пампу цей Адреса закрив всі позиції LLM за ціною 2 594 SOL (приблизно 50,7 тисяч доларів). Прибуток становить 1887
Більше
  • 4
  • 2
За даними TrendForce, глобального дослідницького центру ринку, на початку традиційного недобороного періоду першого кварталу споживчі кінцеві пристрої, хоча постачальні ланцюги час від часу зустрічають спалахи замовлень, але в основному це індивідуальні клієнти, які замовляють товари на поповнення запасів, тому енергія дещо втрачається; У той же час попит на автомобільні та промислові застосування зазнаває впливу інфляції, геополітичних конфліктів, енергетики та інших факторів, тільки AI-сервери стали єдиним яскравим плямою у поставках першого кварталу, завдяки великим інвестиціям світових гігантів CSP та тренду будування великих мовних моделей (LLM) підтримка постачальних ланцюгів у першому кварталі. За цими обставинами виробництво десяти найбільших глобальних підрядників кристалічних пластин в першому кварталі скоротилося на 4,3% до 29,2 млрд доларів США.
Згідно зі звітом Financial Associated Press від 14 червня, Bank of America Securities опублікував звіт, у якому йдеться про те, що Super Micro анонсувала свій останній чіп AI GPU «MI300 X» і прогнозує, що ринок чіпів AI зросте з 30 мільярдів доларів США цього року до 150 мільярдів доларів США у 2027 році. Однак банк залишається «нейтральним» щодо AMD, оскільки компанія не згадувала жодних комерційних клієнтів, які беруть участь у її нових продуктах GPU. AMD все ще сильно відстає від Nvidia, оскільки AMD не почне тестувати чіпи штучного інтелекту до наступного кварталу. З точки зору часу, коли AMD почне стабілізуватися за допомогою прискорювачів GPU на основі 5-нм, Nvidia може випустити свій GPU наступного покоління на основі 3-нм архітектури Blackwell, оптимізованої для LLM, ще більше збільшуючи своє вже значне лідерство на ринку ШІ.

Певна Адреса продала 24,25 млн монет LLM, пропустивши прибуток у 3 млн доларів США

За даними Onchain Lens, Адреса вчора купила 242,5 млн LLM за 9,17 монет SOL, але втратила гроші, продавши ці Токени через 2 хвилини за 8,27 монет SOL. Зараз ці Токени вже коштують більше 300 монет.
Більше
  • 1
  • 1

LLM Ринкова капіталізація перевищує 140 000 000 доларів США, зростання на 43,49% за 1H

Odaily Планета Денна повідомляє, що дані GMGN показують, що LLM памп прорвався через 0.14 USDT, зараз звітується про 0.1403 USDT, зростання за годину становить 43.49%, ринкова капіталізація тимчасово становить 1.41 мільярдів доларів США. Odaily нагадує користувачам, Meme
Більше
  • 1

LLM позиції TOP5 кити вже мають прибуток в розмірі 67 тисяч доларів США

Odaily Planet Daily News Згідно з моніторингом аналітика блокчейні Aunt Ai, LLM Активи TOP5 Кит минулої ночі купив 9,49 млн LLM за низькою ціною $0,01949, а зараз отримав плаваючий прибуток у розмірі $670 000 (вартість всього $185 000, норма прибутковості
Більше

Деякий трейдер «Скорочення втрат» пропустив 1063 млн монет LLM, втративши потенційний прибуток у 1,5 млн доларів США

Повідомлення BlockBeats, 9 січня, за спостереженнями Lookonchain, торговець продав 10,63 млн монет LLM за 1725 доларів США, які тепер вартість понад 1,5 млн доларів США. Учора цей торговець придбав 10,63 млн монет LLM за 14 SOL (2767 доларів США). Однак незабаром після його покупки ціна почала падати, тому він продав всі свої монети за 8,74 SOL (1725 доларів США).
Більше
  • 3
  • 1

Дані: LLM ринкова капіталізація перевищує 1 мільярд доларів США

ChainCatcher повідомляє, за даними GMGN, LLM памп вибився вище 0.1 долара і тепер торгується на рівні 0.125 долара, зростання за годину становить 30%, ринкова капіталізація тимчасово становить 1.26
Більше
  • 2

Деякий розумний гроші купили 2376 мільйонів монет LLM 19 годин тому, поточний прибуток становить 289 разів

За даними The Data Nerd, 19 годин тому розумний інвестор FdvYZ витратив 23,76 SOL (близько 4700 доларів США) на покупку 23,76 мільйонів LLM, які наразі вартість оцінюється в 1,36 мільйона доларів США, ROI становить 289 разів. Він перемістив 15 млн монет LLM на гаманець
Більше
  • 3
  • 2

Маркет-капіталізація монети AI meme LLM у короткий час перевищила 100 мільйонів доларів, обсяг торгів за 24 години перевищив 330 мільйонів доларів США.

BlockBeats повідомили, що 9 січня, за інформацією про ринкові дані GMGN, монета AI meme LLM була випущена 22 години тому, ринкова капіталізація тимчасово перевищила 100 мільйонів доларів США і наразі становить 99,8 мільйонів доларів США, обсяг торгів за 24 години перевищив 3,3
Більше
  • 3

Компанія з шифрування та штучного інтелекту Fraction AI зібрала 6 мільйонів доларів у Pre-Seed раунді фінансування, очолили раунд інвестиційна компанія Spartan Group та Symbolic Capital

За даними The Block, фокусуючись на шифруванні та штучному інтелекті стартап Fraction AI здобув 6 млн доларів США попереднього раунду фінансування Pre-Seed. Лідерами цього раунду стали Spartan Group та Symbolic Capital, а також в ньому взяли участь Borderless Capital, Anagram, Foresight Ventures та Karatage. Крім того, співзасновники Polygon Sandeep Nailwal та NEAR Protocol Illia Polosukhin також приєдналися до проекту як інвестиційні ангели та консультанти. Дріб
Більше

Екологічний проект Solana AI CAI | CharacterX оголосив про випуск корпоративної інфраструктури штучного інтелекту CAI

Проект штучного інтелекту Solana-екосистеми CAI | CharacterX запускає корпоративний інфраструктурний рішення з штучного інтелекту CAI. COO стверджує, що CAI вже уклав попередні угоди з кількома компаніями з місячним доходом 500 тисяч доларів. Проект отримав підтримку Stanford Blockchain Accelerator та зернового інвестиційного кола на суму мільйонів доларів.
Більше

CEO Anthropic: розвиток AI не збавився

Керівник виконавчого комітету Anthropic Dario Amodei заявив, що очікується, що швидкість поліпшення великих мовних моделей не сповільниться, незважаючи на останні звіти про те, що в порівнянні з ранніми моделями вдосконалення продуктивності LLM, які компанія, Google та OpenAI збираються випустити, не є великими. Згідно з повідомленнями цього місяця, продуктивність останньої флагманської моделі Orion від OpenAI не покращилася. (The
Більше

Фонд Aptos співпрацює з AI компанією для створення інструментів программування мовою Move

Фонд Aptos співпрацює з FLock.io, щоб запровадити інструменти штучного інтелекту, що роблять кодування на мові програмування Move, яка базується на Блокчейн, більш простим. FLock.io розробив спеціальну велику мовну модель, яка настроєна на Move, що дозволяє робити адаптивні зміни на Aptos мережі. Попередні тести показали, що LLM від FLock.io показав вражаючі результати у створенні специфічного для Move коду, а також значно покращив точність та зрозумілість коду.
Більше

AO оголошує про запуск програми "AI on AO" та випуск ланцюжкової відкритої великої мовної моделі

Золотий фінансовий звіт повідомляє, що екосистема AO оголошує про запуск програми «AI on AO», в рамках якої було створено ланцюжок відкритих джерел мови (LLM) для використання будь-яких моделей штучного інтелекту (не тільки LLM) на ланцюжку. Заснований на мережі Apus та використовуючи постійне зберігання на ланцюжку Arweave, будується децентралізована, недовірена мережа GPU, яка забезпечує надійні, ефективні та низькокоштовні обчислювальні можливості для навчання та інференсу штучного інтелекту. Дані AI на AO можна завантажити на ArDrive через Arweave.
Більше

Arweave AO минулого тижня зберіг понад 1,58 мільярда доларів США

Золотий фінансовий звіт повідомив, що після справедливого розподілу протокол обчислень штучного інтелекту AO на базі Arweave привернув понад 158 мільйонів доларів депозитів протягом першого тижня. Зазначається, що AO - це новий протокол, побудований на постійному рівні зберігання даних Arweave, який може реалізувати паралельний запуск додатків за допомогою децентралізованої моделі обчислень. Він також може забезпечити виконання застосунків штучного інтелекту на ланці, забезпечуючи роботу великих мовних моделей (LLM) в розумних контрактах.
Більше
Згідно з новинами PANews 7 липня, згідно з The Block, Lightning Labs запустила новий інструмент штучного інтелекту для біткойнів. Інструменти розроблені, щоб допомогти розробникам легко інтегрувати біткойн і Lightning Network у свої програми ШІ. Набір включає LLM Agent BitcoinTools, який дозволяє розробникам створювати агентів штучного інтелекту, які можуть зберігати баланси Bitcoin, надсилати/отримувати Bitcoin у Lightning Network і взаємодіяти з вузлами Lightning Network Daemon. Крім того, цей випуск включає Aperture Reverse Proxy Server, який підтримує Lightning Node Connect і пропонує динамічне ціноутворення кінцевих точок API. Ці інструменти підвищать доступність і функціональність інфраструктури ШІ.
Щоденні новини Odaily Planet. Компанія Hive Blockchain, що займається видобутком біткойнів, заявила під час телефонної розмови з аналітиками в п’ятницю, що компанія дозволить клієнтам навчати широкомасштабні мовні моделі штучного інтелекту у своєму центрі обробки даних порівняно з такими конкурентами, як ChatGPT від OpenAI. Компанія стверджує, що краще. конфіденційність. Айдін Кіліч, генеральний директор і президент компанії, сказав: «Компанії зараз помічають, що вони не хочуть завантажувати конфіденційні дані клієнтів до таких компаній, як OpenAI, які мають публічну LLM (велику мовну модель). Ми хочемо забезпечити конфіденційність у Hive через Hive Cloud, компанії можуть укладати угоди про надання послуг, володіти своїми даними та конфіденційністю, а також виконувати робочі навантаження ШІ на наших графічних процесорах». У п'ятницю акції Hive виросли майже на 2 відсотки на Nasdaq. (CoinDesk)
Згідно зі звітом IT House від 25 червня, розробник Іван Мартінес Торо нещодавно запустив модель з відкритим кодом PrivateGPT, яка дозволяє користувачам задавати запитання на основі власних документів без підключення до Інтернету. Повідомляється, що модель з відкритим кодом PrivateGPT можна запускати локально на домашніх пристроях, а модель великої мови (LLM) з відкритим кодом під назвою gpt4 потрібно завантажити перед запуском. Потім попросіть користувачів помістити всі пов’язані файли в каталог, щоб модель одержала всі дані. Після навчання LLM користувач може поставити моделі будь-яке запитання, і вона відповість, використовуючи наданий документ як контекст. PrivateGPT може приймати понад 58 000 слів і наразі вимагає багато локальних обчислювальних ресурсів (рекомендовано процесор високого класу) для налаштування. Торо сказав, що PrivateGPT зараз знаходиться на стадії підтвердження концепції (PoC), що принаймні доводить, що велика модель, схожа на ChatGPT, може бути створена повністю локально. Передбачається, що потенціал перетворення цього PoC у реальні продукти може дозволити компаніям доступ до персоналізації, безпеки та конфіденційності. ChatGPT для підвищення продуктивності.