La divisione handheld di AMD passa a Qualcomm

La divisione handheld di AMD passa a Qualcomm

AMD vende a Qualcomm il proprio patrimonio tecnologico legato alla grafica per sistemi handheld; continua il focus nei business delle GPU e delle CPU

di pubblicata il , alle 08:41 nel canale TLC e Mobile
AMDQualcomm
 

Qualcomm e AMD hanno annunciato di aver concluso un accordo incentrato sul patrimonio di asset tecnologici, proprietà intellettuali e risorse nei settori della grafica e del multimedia per sistemi handheld detenuti da AMD, ceduti a Qualcomm per un controvalore di 65 milioni di dollari USA pagati in contanti.

L'operazione è una di quelle intraprese da AMD nel corso dell'ultimo anno per focalizzare la propria forza produttiva e tecnologica nei core business dei processori e delle GPU, smantellando progressivamente tutte quelle divisioni interne provenienti dall'acquisizione della canadese ATI che hanno rappresentato per AMD più che un'opportunità di diversificazione del business una fonte di costi ulteriori.

I termini dell'accordo prevedono che Qualcomm estenda una proposta di assunzione ai vari team della divisione handheld di AMD responsabili della progettazione e dello sviluppo, team impegnati nella messa a punto di tecnologie che fanno evolvere i dispositivi mobili in aree come la grafica 2D e 3D, l'audio/video, i display e l'architettura.

Con questa notizia, nel mese di Ottobre 2008, avevamo segnalato come AMD avesse concluso un accordo per la fornitura in licenza a Qualcomm delle proprie tecnologie video legate ai dispositivi mobile, originariamente sviluppate da ATI ed entrate nel pacchetto dei prodotti AMD nel momento in cui l'acquisizione di ATI è stata completata nell'autunno 2006.

I termini dell'accordo prevedevano per Qualcomm la possibilità di commercializzare proprie tecnologie che incorporassero all'interno gli standard OpenGL ES 2.0 e OpenVG 1.0, da utilizzare in prodotti Mobile Station Modem integrati in dispositivi mobile 3G. L'architettura ATI Imageon di nuova generazione è basata su tecnologia a shader unificati, comprendendo anche funzionalità di accelerazione hardware per applicazioni grafiche evttoriali e applicazioni flash, ambiti di utilizzo diffusi nel mondo dei dispositivi mobile.

38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cocoz121 Gennaio 2009, 09:08 #1
Forza AMD,secondo me fan bene a dismettere tutti i rami inutili o nn sfruttati al 100% e a concentrarsi solo su cpu e gpu, gpu già ottime,oracon i nuovi phenom x4 II recupererà anche su lato cpu...e poi il suo approccio di prezzi umani,semmai con un pò di prestazioni in meno risptto ad intel e nvidia fa solo bene a noi consumatori,visto che il 90% degli user nn sfrutta nemmeno il 50% della potenza a disposizione...
M@tteo7921 Gennaio 2009, 11:15 #2
Originariamente inviato da: cocoz1
oracon i nuovi phenom x4 II recupererà anche su lato cpu...


Credi davvero che un utente Intel con sistema basato su Core2 passi a questi Phenom II ? Non c'è motivo di passare ad una piattaforma con prestazioni inferiori e con possibilità di upgrade pari a ZERO.
Se al contrario ti riferisci ai pochi possessori di sistemi AM2+ che (giustamente) passeranno a Phenom II capirai che non ci potranno essere incrementi di quote di mercato... poichè erano già utenti AMD.



Originariamente inviato da: cocoz1
il 90% degli user nn sfrutta nemmeno il 50% della potenza a disposizione...


Parla per te. Non è assolutamente vero quello che affermi... fonti ?
blackshard21 Gennaio 2009, 11:47 #3
Originariamente inviato da: M@tteo79
Credi davvero che un utente Intel con sistema basato su Core2 passi a questi Phenom II ? Non c'è motivo di passare ad una piattaforma con prestazioni inferiori e con possibilità di upgrade pari a ZERO.
Se al contrario ti riferisci ai pochi possessori di sistemi AM2+ che (giustamente) passeranno a Phenom II capirai che non ci potranno essere incrementi di quote di mercato... poichè erano già utenti AMD.


C'è anche chi ha un pentium 4/athlon xp/pentium 3/pentium 2/ etc... che potrebbe decidere di acquistare un computer nuovo e prendere un phenom piuttosto che un core 2.

Sorvoliamo poi sulla mitica frase riguardo le possibilità di upgrade pari a zero del socket AM2... dovresti informarti meglio al riguardo.


Originariamente inviato da: M@tteo79
Parla per te. Non è assolutamente vero quello che affermi... fonti ?


Se vogliamo essere politicamente corretti, la sua parola vale quanto la tua, quindi anche lui potrebbe dirti che la tua affermazione non è assolutamente vera e potrebbe chiederti le tue fonti che smentiscono la sua affermazione.
Cappej21 Gennaio 2009, 11:50 #4
AMD ha ottime possibilità di recuperare una buona fetta di mercato con il gioco Prezzo/Prestazioni. I Phenom avranno sicurmente prestazioni inferiori agli Intel, ma sicuramente i prezzi di un quand-core Phenom non hanno a che vedere con i prezzi quad-core Intel. nNon solo, almeno per quanto mi riguarda, la piattaforma i7 non convince.
Troppi costi troppo elevati per ottenere un Boost prestazionale non conveniente. Inoltre I nuovi Phenonm sono compatinili AM2+ AM3 con memory controller DDR2 e DDR3 e possono essere impiegati sia in sistemi HIGH-END che SOHO... con i7 devi cambiare Soket... esiste il soket per il SOHO e quello Estremo per il giocatore... io credo che, visti i tempi di magra economica mondiale, AMD stia facendo le scelte giuste.
Che dire ...
ciao
Ranzo21 Gennaio 2009, 12:08 #5

:)

Go Amd, Go !!!
bonzuccio21 Gennaio 2009, 13:17 #6
Originariamente inviato da: Cappej
AMD ha ottime possibilità di recuperare una buona fetta di mercato con il gioco Prezzo/Prestazioni. I Phenom avranno sicurmente prestazioni inferiori agli Intel..


Poi di quanto clock to clock in ambiente windos di un 5-10%. Chi deve rifarsi il pc adesso può scegliere proficuamente grazie al prezzo aggressivo del Phenom II
Normalmente chi ha già una piatta core2 non migra al phenom a meno che non punta a mettere un futuro procio AM3 su scheda AM2+.. bios futuri permettendo
CLAUDIO7821 Gennaio 2009, 13:58 #7

dimagrire si ma con giudizio...

va bene focalizzarsi sul core business ma a forza di dimagrire non è che diventerà anoressica, 'sta AMD????
Un minimo di diversificazione me la terrei, anche perchè se Intel sforna un'altra architettura-killer per cpu come l'attuale, a cosa si attacca AMD? Alla grafica di ATI?
La veggo buia. Sono anni che cerca di entrare nel settore nOtebook e non ci riesce, ha perso il treno dei nEtbook, quello dei nettop....Deve solo augurarsi che schianti nvidia così si accaparra il settore video e buona parte di quello dei chipset.
Sperem di sbagliarsi.
lastlord21 Gennaio 2009, 14:14 #8
per i prezzi dei quad core amd phenomII sono ancora alti.....se uno prende un c2d q9xxx e una scheda madre con un modesto chipset P35 portando l'fsb da 333 (1333) a 400 (1600) spende meno o uguale, ma si ritrova un quad core molto superiore a un phenomII....
M@tteo7921 Gennaio 2009, 14:40 #9
Originariamente inviato da: blackshard
C'è anche chi ha un pentium 4/athlon xp/pentium 3/pentium 2/ etc... che potrebbe decidere di acquistare un computer nuovo e prendere un phenom...


Pentium II, Pentium III ??

E perchè mai un utente che non aggiorna il PC da 10 anni dovrebbe passare proprio ora a Phenom II?? Non credo che AMD faccia affidamento su questi "presunti" possessori di CPU obsolete (ammesso che esistano ancora). Cerchiamo di rimanere con i piedi per terra una volta tanto.


Originariamente inviato da: blackshard
Se vogliamo essere politicamente corretti, la sua parola vale quanto la tua, quindi anche lui potrebbe dirti che la tua affermazione non è assolutamente vera e potrebbe chiederti le tue fonti che smentiscono la sua affermazione.


Rispondere in modo tautologico ha una valenza pari allo zero dunque mi fermo qua.
bonzuccio21 Gennaio 2009, 14:44 #10
lasford ad esempio?
ma per cortesia

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^