Tech

Nesta semana, na IA: Billionaires Talk Automating Works Away

Olá, pessoal, bem -vindo ao boletim de AI regular da TechCrunch. Se você quiser isso em sua caixa de entrada toda quarta -feira, inscreva -se aqui.

Você deve ter notado que pulamos a newsletter na semana passada. A razão? Um ciclo de notícias caótico da IA ​​tornou -se ainda mais pandemonious por Companhia de IA chinesa Deepseek Rise de destaquee a resposta de praticamente sempre canto da indústria e do governo.

Felizmente, estamos de volta aos trilhos – e não um momento muito cedo, considerando os novos desenvolvimentos do Openai no fim de semana passado.

O CEO da Openai, Sam Altman, parou em Tóquio para conversar no palco com Masayoshi Son, CEO do conglomerado japonês Softbank. Softbank é um grande Openai investidor e parceirotendo prometeu ajudar a financiar O enorme projeto de infraestrutura de data center da OpenAI nos EUA

Então Altman provavelmente sentiu que devia ao filho algumas horas de seu tempo.

Do que os dois bilionários falavam? Muitos abstrantes trabalham através de “agentes” da IA, por relatórios de segunda mão. Son disse que sua empresa gastaria US $ 3 bilhões por ano em produtos Openai e se uniria ao OpenAI para desenvolver uma plataforma, “Cristal [sic] Inteligência ”, com o objetivo de automatizar milhões de fluxos de trabalho tradicionalmente de colarinho branco.

“Ao automatizar e autonomizar todas as suas tarefas e fluxos de trabalho, a Softbank Corp. transformará seus negócios e serviços e criará um novo valor”, disse Softbank em um comunicado à imprensa segunda -feira.

Pergunto, porém, o que o humilde trabalhador deve pensar em toda isso automatizando e autonomizando?

Como Sebastian Siemiatkowski, o CEO da Fintech Klarna, que muitas vezes se vangloria da AI substituindo os seres humanosO filho parece ser da opinião de que os stand-ins para os trabalhadores só podem precipitar riqueza fabulosa. Encluído é o custo da abundância. Se a automação generalizada de empregos forem passar, O desemprego em uma escala enorme parece o resultado mais provável.

É desencorajador que aqueles que estão na vanguarda da corrida de IA – empresas como Openai e investidores como o Softbank – optam por gastar conferências de imprensa pintando uma imagem de empresas automatizadas com menos trabalhadores na folha de pagamento. Eles são empresas, é claro – não instituições de caridade. E o desenvolvimento da IA ​​não é barato. Mas talvez pessoas confiaria na IA Se aqueles que guiavam sua implantação mostrou um pouco mais de preocupação com o bem -estar.

Comida para o pensamento.

Notícias

Pesquisa profunda: A OpenAI lançou um novo “agente” de IA projetado para ajudar as pessoas a conduzir pesquisas complexas e detalhadas usando o ChatGPT, a plataforma de chatbot de IA da empresa.

O3-mini: Em outras notícias do Openai, a empresa lançou um novo modelo de “raciocínio” da IA, O3-Mini, após uma prévia em dezembro passado. Não é o modelo mais poderoso do OpenAI, mas o O3-mini possui maior eficiência e velocidade de resposta.

EU bans risky AI: No domingo, na União Europeia, os reguladores do bloco podem proibir o uso de sistemas de IA que consideram representar “risco inaceitável” ou danos. Isso inclui a IA usada para pontuação social e publicidade subliminar.

Uma peça sobre ai “Doomers”: Há uma nova jogada sobre a cultura da AI “Doomer”, vagamente baseada em Sam Altman de expulso como CEO da Openai Em novembro de 2023. Meus colegas Dominic e Rebecca compartilham seus pensamentos depois de assistir à estréia.

Tecnologia para aumentar os rendimentos das culturas: O X “Moonshot Factory” do Google anunciou esta semana seu último graduado. Agricultura herdável é uma startup orientada a dados e aprendizado de máquina, com o objetivo de melhorar como as culturas são cultivadas.

Documento de pesquisa da semana

Os modelos de raciocínio são melhores que a sua IA média na solução de problemas, principalmente as consultas relacionadas à ciência e matemática. Mas eles não são uma bala de prata.

UM Novo estudo de pesquisadores da empresa chinesa Tencent Investiga a questão de “sufocante” em modelos de raciocínio, onde modelos prematuramente, inexplicavelmente abandonam as cadeias de pensamento potencialmente promissoras. De acordo com os resultados do estudo, os padrões de “sujosa” tendem a ocorrer com mais frequência com problemas mais difíceis, levando os modelos para alternar entre cadeias de raciocínio sem chegar a respostas.

A equipe propõe uma correção que emprega uma “penalidade de troca de pensamento” para incentivar os modelos a desenvolver “minuciosamente” cada linha de raciocínio antes de considerar alternativas, aumentando a precisão dos modelos.

Modelo da semana

Créditos da imagem:Yue

Uma equipe de pesquisadores apoiados pelo proprietário da Tiktok, Bydance, a empresa de IA chinesa Moonshot e outros lançaram um novo modelo aberto capaz de gerar músicas relativamente de alta qualidade a partir de avisos.

O modelo, chamado Yuepode gerar uma música com até alguns minutos de comprimento, com vocais e faixas de apoio. Está sob uma licença Apache 2.0, o que significa que o modelo pode ser usado comercialmente sem restrições.

Existem desvantagens, no entanto. A corrida Yue requer uma GPU robusta; A geração de uma música de 30 segundos leva seis minutos com um NVIDIA RTX 4090. Além disso, não está claro se o modelo foi treinado usando dados protegidos por direitos autorais; Seus criadores não disseram. Se as músicas protegidas por direitos autorais estavam de fato no conjunto de treinamento do modelo, os usuários poderiam enfrentar futuros desafios de IP.

Saco de pega

Classificadores constitucionais
Créditos da imagem:Antrópico

AI Reivindicações antrópicas do laboratório de que desenvolveu uma técnica para se defender de maneira mais confiável contra os “jailbreaks” da IA, os métodos que podem ser usados ​​para ignorar as medidas de segurança de um sistema de IA.

A técnica, Classificadores constitucionaisconta com dois conjuntos de modelos de IA do “classificador”: um classificador de “entrada” e um classificador de “saída”. O classificador de entrada anexa solicita solicita a um modelo salvaguardado com modelos que descrevem jailbreaks e outros conteúdos não permitidos, enquanto o classificador de saída calcula a probabilidade de que uma resposta de um modelo discute informações prejudiciais.

Anthrópica diz que os classificadores constitucionais podem filtrar a “maioria esmagadora” dos jailbreaks. No entanto, tem um custo. Cada consulta é 25% mais exigente computacionalmente, e o modelo salvaguardado tem 0,38% menos probabilidade de responder a perguntas inócuas.

Source

Related Articles

Back to top button